Мой рабочий процесс состоит из нескольких задач (последовательных и параллельных), начиная от сбора данных из Hbase и выполнения различных алгоритмов машинного обучения для этих данных и т. Д.
Возможно ли выполнить их в Apache Spark без использования диспетчера рабочих процессов? Причина, по которой я спрашиваю, состоит в том, что у меня есть алгоритм, чтобы упорядочивать задачи партиями (задачи, которые можно запускать вместе). Могу ли я отправить их непосредственно в Spark?