, когда я делаю это, он не может работать
dff = df1.select("context.content_feature.news_style_super")
print dff.printSchema()
df2 = dff.select(explode("name").alias("tmp")) .select("tmp.*")
Traceback (последний вызов был последним): файл "/tmp/zeppelin_pyspark-1808705980431719035.py", строка 367, в повышении Exception (traceback. format_exc ()) Исключение: трассировка (последний вызов был последним): файл "/tmp/zeppelin_pyspark-1808705980431719035.py", строка 355, в файле exec (code, _zcUserQueryNameSpace) "", строка 141, в файле "/ home / work/lxc/interpreter/spark/pyspark/pyspark.zip/pyspark/sql/dataframe.py ", строка 984, в файле выбора jdf = self._jdf.select (файл self._jcols (* cols))" / home / work /lxc / интерпретатор / spark / pyspark / py4j-0.10.4-src.zip / py4j / java_gateway.py ", строка 1133, в вызов ответ, self.gateway_client, self.target_id, self.name)Файл "/home/work/lxc/interpreter/spark/pyspark/pyspark.zip/pyspark/sql/utils.py", строка 69, в деко-рейсе AnalysisException (s.split (':', 1) [1],stackTrace) AnalysisException: вы "не можете разрешить" name
'заданные входные столбцы: [news_style_super] ;; \ n'Project [explode (' name) AS tmp # 1559] \ n + - Project [context # 1411.content_feature.news_style_super AS news_style_super # 1556] \ n + - GlobalLimit 1 \ n + - LocalLimit 1 \ n + - Отношение [контекст # 1411, gr_context # 1412, request_feature # 1413, sequence_feature # 1414, session_feature # 1415, sv_session_user_feature # 1417, user_recommend_feature # 1418, vertical_user_feature # 1419] json \ n "