November 2019

S M T W T F S
      12
34 5 678 9
10111213141516
17181920212223
24252627282930

Style Credit

Expand Cut Tags

No cut tags
Wednesday, May 9th, 2012 02:59 pm

На ITшных собеседованиях любят задавать задачку: что делать, если в директории так много файлов, что попытка применить rm * (и даже ls *2012*) натыкается на ограничение длины  командной строки.

Я раньше думал, что задачка чисто умозрительная. Фиг там. Сегодня я случайно нашёл директорию, в которой лежало более ДВУХСОТ ТЫСЯЧ файлов. ls на ней задумывался навсегда, потому что по умолчанию пытался их отсортировать по алфавиту. du думал секунд двадцать.

Файлики туда добавлялись постепенно. Много лет. Каждый день по несколько десятков. И файловая система не сдохла. UFS на солярке.

Оригинал этой записи в личном блоге.
Любые материалы из этого блога запрещается использовать на сайте livejournal.ru в любой форме и любом объёме.

Wednesday, May 9th, 2012 03:09 pm (UTC)
всю жизнь же такео делали через find | xargs

ну и ls -f тоже никто не отменял
Wednesday, May 9th, 2012 03:47 pm (UTC)
find -exec если POSIX (т.е. без '+', а c';') будет выполнять по форку на каждый файл -- это вообще вешалка.

А так, да, Solaris UFS нетороплив, но фактически неубиваем
Wednesday, May 9th, 2012 04:24 pm (UTC)
Нет, конечно, оно высовывает столько, сколько влезает в ARG_MAX, см. SUSv3