Я хочу написать новую программу Spark 2. Согласно руководству по программированию Apache Spark RDD, я должен сначала создать SparkContext. https://spark.apache.org/docs/latest/rdd-programming-guide.html#initializing-spark. Однако я знаю, что SparkSession является шлюзом для всех контекстов Spark 2. Есть ли причина не использовать SparkSession ни для одной из моих будущих программ Spark 2?