Что такое стандартный процесс разработки с использованием некоторой IDE для spark с python для
- Исследование данных в кластере
- Разработка приложений?
Я нашел следующие ответы, которые меня не удовлетворяют:
a) Нотбуки Zeeplin / Jupiter, работающие «на кластере»
б)
- Установите Spark и PyCharm локально,
Я бы хотел сделать а) и б) использовать локально установленную IDE, которая напрямую взаимодействует с кластером, потому что мне не нравится идея создавать локальные фиктивные файлы и изменять код перед запуском его в кластере. Я также предпочел бы IDE по ноутбуку. Есть ли стандартный способ сделать это или мои ответы выше уже "лучшая практика"?