У меня есть программа tenorflow, которую я хочу запустить на главном узле кластера AWS EMR, который имеет очень слабую зависимость от искры - я хочу выполнить команду spark submit, чтобы сделать тензорный поток доступным как можно большему количеству ресурсов.Я думал, что если бы я сделал
spark-submit --master local[4] myprogram.py
Эта искра получит только 4 ядра, а myprogram.py
получит остальное - но, возможно, я ограничу количество ядер для всего приложения только 4?(Скажем, главный узел имеет 32 ядра)
Программа tenorflow не распределена - весь поток представляет собой большое искровое приложение, которое выполняет много ETL с узлами задач, тогда обучение просто происходит на главном узле,но в обучении все еще используется искра - это неловкость - обычно я создаю свою собственную среду Python для tenorflow и pyspark, но, поскольку я нахожусь на EMR, я не хочу управлять двумя установками spark.