Я настраиваю свечу Отправить задание для обработки более 60 000 событий в секунду. Каким должен быть мой внутренний пакет и драйвер, исполнитель, узлы, настройки ядра для обработки этой нагрузки.
Я пробовал интервал между 1 и 10 минутами.
С памятью исполнителя от 4 ГБ до 30 ГБ, с количеством ядер от 10 до 60.
spark-submit --conf "spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version = 2" - master spark: // masterURL: 7077 - кластер режима развертывания - память-драйвер 30g --num- исполнители 60 --executor-cores 10 --executor-memory 30g --conf "spark.scheduler.mode = FAIR" --class «MainClass» SampleJar.jar
Запланированный интервал между партиями должен быть завершен до следующего графика