Что такое пакет pyspark, эквивалентный org.apache.spark.sql.execution? - PullRequest
0 голосов
/ 28 декабря 2018

У меня есть код ниже, который находится в PySpark,

df1 = spark.range(2, 10000000, 2)
df2 = spark.range(2, 10000000, 4)
step1 = df1.repartition(5)
step12 = df2.repartition(6)
step2 = step1.selectExpr("id * 5 as id")
step3 = step2.join(step12, ["id"])
step4 = step3.selectExpr("sum(id)")
step4.collect()

Я хочу использовать step4.queryExecution.debug.codegen, который присутствует в пакете Scala.Может кто-нибудь указать мне текущий пакет.

1 Ответ

0 голосов
/ 28 декабря 2018

Эта часть API не предоставляется в PySpark, но к ней можно обратиться через внутренний объект JVM:

step4._jdf.queryExecution().debug().codegen()
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...