Какова основная причина, которую я получаю: org.apache.spark.sql.catalyst.errors.package $ TreeNodeException: execute, tree: Error - PullRequest
0 голосов
/ 07 июня 2019

У меня много фреймов данных pyspark, два фрейма данных pyspark, к которым я хотел бы присоединиться, но получаю эту ошибку:

org.apache.spark.sql.catalyst.errors.package$TreeNodeException: execute, tree:

Dataframe_1: содержит много объединений из других фреймов данных Некоторыеиз этих фреймов данных имеют агрегирование по группам, а затем объединяются в мастер Dataframe_1.

Dataframe_2: также содержит много объединений из других фреймов данных, и некоторые из этих фреймов данных имеют агрегации по группам, а затем объединяются в мастер Dataframe_2,Также содержит еще несколько групп по количеству после завершения всех слияний

Когда я пытаюсь присоединиться к фреймам данных pysaprk: Dataframe_1 и Dataframe_2 Я получаю следующую ошибку:


org.apache.spark.sql.catalyst.errors.package$TreeNodeException: execute, tree:
/databricks/spark/python/pyspark/sql/dataframe.py in show(self, n, truncate, vertical)
    377         """
    378         if isinstance(truncate, bool) and truncate:
--> 379             print(self._jdf.showString(n, 20, vertical))
    380         else:
    381             print(self._jdf.showString(n, int(truncate), vertical))

/databricks/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py in __call__(self, *args)
   1255         answer = self.gateway_client.send_command(command)
   1256         return_value = get_return_value(
-> 1257             answer, self.gateway_client, self.target_id, self.name)
   1258 
   1259         for temp_arg in temp_args:

/databricks/spark/python/pyspark/sql/utils.py in deco(*a, **kw)
     61     def deco(*a, **kw):
     62         try:
---> 63             return f(*a, **kw)
     64         except py4j.protocol.Py4JJavaError as e:
     65             s = e.java_exception.toString()

/databricks/spark/python/lib/py4j-0.10.7-src.zip/py4j/protocol.py in get_return_value(answer, gateway_client, target_id, name)
    326                 raise Py4JJavaError(
    327                     "An error occurred while calling {0}{1}{2}.\n".
--> 328                     format(target_id, ".", name), value)
    329             else:
    330                 raise Py4JError(

Py4JJavaError: An error occurred while calling o2076.showString.
: org.apache.spark.sql.catalyst.errors.package$TreeNodeException: execute, tree:
Exchange hashpartitioning(user_id#1135L, 200)
+- *(213) HashAggregate(keys=[user_id#1135L], functions=[merge_sum(merge sum#3552L) AS sum#3552L, partial_count(distinct team_id#2897L) AS count#3550L], output=[user_id#1135L, sum#3552L, count#3550L])
   +- *(213) HashAggregate(keys=[user_id#1135L, team_id#2897L], functions=[merge_sum(merge sum#3552L) AS sum#3552L], output=[user_id#1135L, team_id#2897L, sum#3552L])
......
GIANT HASH HIERARCHY 
......
Caused by: java.lang.RuntimeException: Couldn't find team_id#1693.....

Использование блоков данных5.2 (включает Apache Spark 2.4.0, Scala 2.11)

Я пробовал объединять, собирать, перераспределять перед объединением, все терпит неудачу.

Если я отображаю / показываю любой из фреймов данных, они показываютполные точные данные

Если я преобразую в pandas, то объединить это работает

Я ожидаю, что оно точно объединит два кадра данных на ключе.Что я делаю по своей сути неправильно.

Когда я присоединяю dataframe_1 к другому маленькому фрейму данных, он работает

Когда я присоединяю dataframe_2 к другому маленькому фрейму данных, он работает

Когда я присоединяю dataframe_1 кdataframe_2 не работает

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...