Я новичок в Spark и изучаю архитектуру.Я понял, что spark поддерживает 3 менеджера кластера, таких как YARN, Standalone и Mesos.
В режиме кластера пряжи драйвер Spark находится в диспетчере ресурсов, а исполнители - в менеджере контейнеров узла пряжи.
В автономном режимеРежим кластера Драйвер Spark находится в главном процессе, а исполнители - в подчиненном процессе.
Если мое понимание верно, то необходимо ли устанавливать Spark на все узлы Диспетчер пряжи кластера Yarn, подчиненные узлы автономного кластера