Я создал кластер искр на ec2, после этого я установил Jupyter на мастер-узел и запустил jupyter, после чего я создал sparkcontext, используя
findspark.init(spark_home='/home/ubuntu/spark')
import pyspark
from functools import partial
sc = pyspark.SparkContext(appName="Pi")
, когда я пытаюсь запустить любое задание В spark используются только ядра главной машины, все подчиненные работают и подключены к главной, но я все еще не могу использовать ядра любой из подчиненных машин, кто-нибудь, пожалуйста, помогите.