Я новичок в платформе данных Hortonworks (HDP).У меня полнофункциональный кластер HDP (не песочница hortownworks), работающий отдельно, и у меня есть root-доступ ко всем машинам кластера.Я следовал этому руководству по настройке среды разработки Spark с Java в Intellij Idea.Я разрабатываю приложение на своем локальном настольном компьютере.Чтобы запустить приложение, мне нужно сделать следующее:
- Написать Java-программу для Spark
- Сборка с использованием
mvn package
из Intellij Idea - Загрузить
jar
файл к главному узлу Spark через SFTP - SSH к главному узлу Spark и отправка задания зажигания с помощью
./bin/spark-submit --class "MyClass" --master yarn /path/to/MyJar.jar
Он работает отлично, и я могу проверить работу в Ambari UI → Пряжа → ResourceManager UI → Приложения .Проблема заключается в том, что мне приходится выполнять весь этот процесс каждый раз, когда я делаю изменения в своем коде.
Есть ли способ автоматизировать этот процесс?Можно ли настроить Intellij Idea для создания, развертывания и запуска приложений spark в кластере одним щелчком мыши?Так что я могу запустить и отладить свое приложение, не выполняя весь этот процесс.Я изучил это и это , но без радости.