В Spark три знакомых мне варианта развертывания кластера (не локальных):
Возможно, есть и другие параметры развертывание кластера , но я обеспокоен этими тремя. Все три указанных выше режима поддержки client и cluster . Режим client включает в себя запуск программы драйвера с самого пограничного компьютера, а режим cluster - запуск драйвера на одном из рабочих узлов внутри кластера.
Теперь, на стороне Flink, у меня есть только опыт установки с 1 узлом, который я узнал из некоторого учебника, который на самом деле не разрабатывал экосистему и был сосредоточен больше на коде, чем "также", чтобы обеспечить общую картину. Я искал вариантов развертывания во Flink , поэтому, чтобы понять это. В документации говорится о всех трех опциях: Standalone, Mesos и YARN, но из документов не станет ясно, поддерживает ли она (что мы в жаргоне Spark называем как) режим клиента или режим кластера или и , или , другой режим .
Идея состоит в том, чтобы заменить кластер Spark на Flink. Я хочу понять шаги, пока выполняю их. Шаги доступны в документах. Обоснование этих шагов либо неявно (достаточно для меня, чтобы я не понимал), либо просто отсутствует.
Объяснение экспертов / участников Apache Flink поможет.