Мы рассматриваем возможность использования Spark Structured Streaming в проекте.Вход и выход - паркетные файлы в корзине S3.Можно ли как-то контролировать размер выходных файлов?Мы нацелены на выходные файлы размером 10-100 МБ.Как я понимаю, в традиционном пакетном подходе мы могли бы определять размеры выходного файла, регулируя количество разделов в соответствии с размером входного набора данных, возможно ли что-то подобное в структурированной потоковой передаче?