November 2019

S M T W T F S
      12
34 5 678 9
10111213141516
17181920212223
24252627282930

Style Credit

Expand Cut Tags

No cut tags
Wednesday, May 9th, 2012 02:59 pm

На ITшных собеседованиях любят задавать задачку: что делать, если в директории так много файлов, что попытка применить rm * (и даже ls *2012*) натыкается на ограничение длины  командной строки.

Я раньше думал, что задачка чисто умозрительная. Фиг там. Сегодня я случайно нашёл директорию, в которой лежало более ДВУХСОТ ТЫСЯЧ файлов. ls на ней задумывался навсегда, потому что по умолчанию пытался их отсортировать по алфавиту. du думал секунд двадцать.

Файлики туда добавлялись постепенно. Много лет. Каждый день по несколько десятков. И файловая система не сдохла. UFS на солярке.

Оригинал этой записи в личном блоге.
Любые материалы из этого блога запрещается использовать на сайте livejournal.ru в любой форме и любом объёме.

Wednesday, May 9th, 2012 06:42 pm (UTC)
18000 файлов в одном каталоге я создавал ещё в конце прошлого века, на 486SX25 c 4Mb памяти. Это, конечно, не 200000, но тамошней freebsd хватило, чтобы rm * сломался, пришлось делать find | xargs.

А не так давно "очищал корзину" в винде, в которой скопилось чуть более миллиона файликов. А всего-то - удалил с десяток папок по 100-120 тысяч файликов в каждой, забыв, что "синие панельки" (FAR manager) по умолчанию удаляют в корзину.

Кстати, эти 100000 файликов в одном каталоге у меня создаются примерно за сутки. А всего за сутки создаётся примерно 250000 файликов в пяти каталогах, затем создаются новые пять каталогов на новые сутки, и так по кругу уже года два. Старые файлы, правда, удаляются (автоматически, после архивации) :-)

NTFS, WXP. Пока не сдохла, и даже не тормозит...