Разница в программе Spark в локальном режиме и кластере - PullRequest
0 голосов
/ 28 января 2019

Если я пишу программу spark и запускаю ее в автономном режиме, и когда я хочу развернуть ее в кластере, нужно ли мне менять свои программные коды или не нужно никаких изменений в кодах?Является ли искровое программирование независимым от количества кластеров?

Ответы [ 2 ]

0 голосов
/ 29 января 2019

Вам просто нужно установить параметр master в yarn или другой менеджер ресурсов, если вы хотите запустить его в кластере.Если вы хотите запустить его локально, просто используйте local[*], используя количество потоков, равное ядру вашей машины.

0 голосов
/ 29 января 2019

Не думаю, что вам нужно вносить какие-либо изменения.Ваша программа должна работать так же, как и в локальном режиме.

Да, программы Spark не зависят от кластеров до тех пор, пока вы не используете что-то конкретное для кластера.Обычно этим управляет пряжа.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...