У меня есть локальный скрипт Python, работающий в записной книжке Jupyter, который выполняет задания на моем локальном кластере Spark, работающем на моей машине:
sc = pyspark.SparkContext(appName="test")
sqlCtx = pyspark.SQLContext(sc)
Как изменить это на строку подключения, чтобы вместо этого запускать задания в моем кластере EMR Spark в AWS?
Возможно ли это, или мне нужно использовать функцию spark-submit
при SSH'инге в удаленном кластере?