Я использовал эту программу командной строки, которую нашел в другом посте на SO , описывающем, как сделать паук на сайте.
wget --spider --force-html -r -l2 http://example.com 2>&1 | grep '^--' | awk '{ print $3 }' | grep -v '\.\(css\|js\|png\|gif\|jpg\)$' > wget.out
Когда я сканирую большой сайт, его завершение занимает много времени. Между тем, файл wget.out на диске показывает нулевой размер. Так когда же данные по каналам обрабатываются и записываются в файл на диске? Это после каждого этапа в трубе дойти до завершения? В этом случае заполнится ли wget.out после завершения сканирования?
Как заставить программу периодически записывать на диск, чтобы, даже если этап сканирования был прерван, у меня был сохранен какой-то вывод?