Я хотел бы загрузить веб-страницы, предоставляя URL-адреса со стандартного ввода.По сути, один процесс непрерывно создает URL-адреса для stdout / file, и я хочу направить их в wget или curl.(Подумайте об этом, как о простом веб-сканере, если хотите).
Кажется, это работает нормально:
tail 1.log | wget -i - -O - -q
Но когда я использую tail -f, он больше не работает(буферизация или wget ожидает EOF?):
tail -f 1.log | wget -i - -O - -q
Кто-нибудь может предложить решение с использованием wget, curl или любого другого стандартного инструмента Unix?В идеале я не хочу перезапускать wget в цикле, просто продолжайте загружать URL-адреса по мере их поступления.