Используя pyspark, я извлекаю 1500 полей из файла JSON, сохраняю их как паркет и создаю внешнюю таблицу улья.Все поля, извлеченные из JSON, представлены в строковом формате.В Hive DDL все имена столбцов должны быть целочисленными.Когда я сохраняю как паркет и запрашиваю таблицу кустов, я вижу ошибку ниже:
java.io.IOException: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.ClassCastException
Есть ли способ справиться с этой ошибкой?
Преобразование столбцов в Int перед сохранением, как помогает паркет.Но явное преобразование 1500 столбцов в Integer будет невозможно.