Будет ли spark
иметь ограничение при чтении 1000 columns
из таблицы hive
? Это говорит мне об урезании плана, так как он слишком длинный, и я вижу, metastore
соединение потеряно. Я могу printSchema
, прочитать его, но когда я выполняю действие над ним, он выдает MetaStoreclient
исключение. У меня есть другая таблица, созданная мной с 100
столбцами, но я смог ее прочитать и выполнить действие над ней. Он просто выдает предупреждение, как указано выше, но вывод будет отображаться. Является ли это проблемой permission
для другой таблицы с 1000
столбцами, как это было в работе, я не создавал ее.