Spark, работает около 254 предела класса дела - PullRequest
0 голосов
/ 20 декабря 2018

У меня есть таблица с несколькими сотнями полей.Больше чем максимально допустимое количество полей для класса дела.Это делает невозможным превращение общего блока данных в набор данных с более чем 254 полями, не оставляя его в виде строки.

.as[CaseClassNeed > 254 Fields] crashes due to JVM exception

Что люди сделали для работывокруг вопроса?Является ли единственный способ начать группировать поля вместе во вложенном порядке?Я хотел бы избежать этого, поскольку это вызывает проблемы с удобством использования в том смысле, что уже есть код, который зависит от класса case, не использующего вложенные поля.

...