Я использую Azure приложения функций (Python) с триггером BLOB-объектов для обработки CSV и перемещения записей в концентратор событий. У меня есть рабочий код (до 50 строк) после следования стандартной документации. Однако я хочу знать, какой подход следует использовать, если размер файла составляет несколько ГБ. Будет ли весь этот файл отправлен в функцию Azure за один go? Что, если его необходимо прочитать в виде фрагментов фиксированного размера или построчно, будет ли поддерживаться концепция триггера Azure?
Я ищу какой-либо подход / код для вышеуказанной проблемы в python которые не загружают весь файл в память контейнера функций azure.