Почему руководство по программированию Apache Spark продолжает использовать SparkContext? - PullRequest
0 голосов
/ 11 апреля 2019

Я хочу написать новую программу Spark 2. Согласно руководству по программированию Apache Spark RDD, я должен сначала создать SparkContext. https://spark.apache.org/docs/latest/rdd-programming-guide.html#initializing-spark. Однако я знаю, что SparkSession является шлюзом для всех контекстов Spark 2. Есть ли причина не использовать SparkSession ни для одной из моих будущих программ Spark 2?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...