Я пытаюсь проанализировать результаты запросов по HTTP, которые могут возвращать до миллионов строк - где каждая строка должна быть проанализирована.В идеале я хотел бы прочитать строку за раз из соединения и проанализировать ее по ходу работы - так что в основном это итератор FileHandle-esque, но все существующие библиотеки HTTP, кажется, извлекают все содержимое одновременно, хотя можно а) сохранить вфайл, или б) обрабатывать куски, используя код ref.A не является идеальным, так как это двухпроходное решение (файл должен быть прочитан построчно после передачи данных, и он займет память, возможно, излишне).B не идеален, поскольку хотел бы иметь возможность возвращать каждую строку, а не обрабатывать ее в ссылке на код, и, кроме того, порция не является строкой, так что решение LWP не извлекает выгоду из восстановления строки LWP.Я знаю, что есть неблокирующие решения (использующие AnyEvent и Coro), но они, похоже, больше заинтересованы в неблокировании, чем в построчном преобразовании.Кто-нибудь может указать мне правильное направление, или я лаю не на том дереве?