Я не знаком с Apache Beam, ответ с точки зрения общего потока.
Если предположить, что между данными сущностей в различных разделах входного файла нет никаких связей, то да, работа с несколькими входными файлами определенно должна помочь, поскольку все эти файлы могут обрабатываться практически параллельно (в зависимости, конечно, от максимального количество доступных работников).
Вам может не нужно заранее разбивать огромный zip-файл, возможно, можно будет просто передать сегменты единого потока входных данных, чтобы разделить рабочих сегментов данных для записи, если издержки самой такой передачи будут является незначительным по сравнению с фактической обработкой сегмента данных.
Общим ограничением производительности будет скорость чтения входных данных, разбиение их на сегменты и передача работникам данных сегментов.
Работник сегмента данных будет дополнительно разбивать полученный сегмент данных на более мелкие порции, эквивалентные максимум 500 объектам, которые можно преобразовать в объекты и записать в хранилище данных за одну пакетную операцию. В зависимости от используемой клиентской библиотеки хранилища данных может быть возможно выполнить эту операцию асинхронно, разрешая разделение на куски и преобразование в сущности, не дожидаясь завершения предыдущих записей хранилища данных.
Тогда ограничение производительности у работника сегмента данных будет равно скорости, с которой сегмент данных может быть разбит на куски, а порция преобразована в сущности
Если асинхронные операции недоступны или для еще более высокой пропускной способности, может быть выполнена еще одна передача каждого чанка работнику сегмента, при этом работник сегмента выполняет преобразование в сущности и пакетную запись хранилища данных.
Тогда ограничение производительности на рабочем уровне сегмента данных будет просто скоростью, с которой сегмент данных может быть разбит на куски и передан работникам чанка.
При таком подходе фактическое преобразование в сущности и пакетная запись их в хранилище данных (асинхронное или нет) больше не будут находиться на критическом пути разделения потока входных данных, который, я полагаю, ограничивает производительность в вашем текущем подход.