Я пишу это, так как не могу найти ответ на эту проблему.Я использую PySpark и запускаю скрипт, за исключением того, что не вижу, где находятся мои другие сессии Spark, или закрываю их.Каков наилучший способ сделать следующее?
Я не инициализирую никакую другую SparkContext
в этой spark-submit
работе, поэтому это должны быть контексты, оставленные после некоторого предыдущего запуска?Обратите внимание, что я не хочу allowmultiplecontexts
.
- Проверить работу
SparkContexts
. - Использовать существующие
SparkContexts
, если они существуют. - Лучший способизмените этот код.
from src import config
import pandas as pd
import plotly.graph_objs as go
from visualize_main import app
from dash.dependencies import Input, Output, State
from pyspark.sql import SparkSession
from datetime import datetime
import dash_core_components as dcc
import dash_html_components as html
from pyspark import SparkContext, SparkConf
spark =SparkSession.builder.master('local').appName("morphy_test111_dgdfgdf").config(conf=conf).getOrCreate()
Я отправляю работу вместе со следующим
spark-submit /app.py
Я получаю эту ошибку
WARN SparkContext: Multiple running SparkContexts detected in the same JVM!
org.apache.spark.SparkException: Only one SparkContext may be running in this JVM (see SPARK-2243). To ignore this error, set spark.driver.allowMultipleContexts = true. The currently running SparkContext was created at:
Любая помощь, высоко оцениваемая какЯ не нашел правильного объяснения этому.