Spark работает на локальном компьютере вместо автономного кластера - PullRequest
0 голосов
/ 07 февраля 2020

Я создал кластер искр на ec2, после этого я установил Jupyter на мастер-узел и запустил jupyter, после чего я создал sparkcontext, используя

findspark.init(spark_home='/home/ubuntu/spark')
import pyspark
from functools import partial
sc = pyspark.SparkContext(appName="Pi")

, когда я пытаюсь запустить любое задание В spark используются только ядра главной машины, все подчиненные работают и подключены к главной, но я все еще не могу использовать ядра любой из подчиненных машин, кто-нибудь, пожалуйста, помогите.

1 Ответ

1 голос
/ 24 февраля 2020

Вам нужно установить главный URL-адрес на spark://... при создании вашего SparkContext

...