Процесс миграции Hadoop продолжал завершаться сбоем с сообщением об ошибке ниже, когда отображение входных данных имело 160 столбцов.
18/12/08 15:22:35 INFO mapreduce.Job: задание job_1544262661171_0001 работает в режиме убер: false 18/12/08 15:22:35 INFO mapreduce.Job: карта 0%уменьшить на 0%, Состояние: СБОЙ Ошибка: превышен предел накладных расходов ГХ Контейнер уничтожен ApplicationMaster.Контейнер убит по запросу.Код выхода - 143. Контейнер завершен с ненулевым кодом выхода. 143 18/12/08 15:24:17 INFO mapreduce.Job: Идентификатор задачи: try_1544262661171_0001_m_000000_2, Состояние: Сбой: ошибка: превышен предел накладных расходов ГХ Контейнер уничтожен ApplicationMaster.Контейнер убит по запросу.Код выхода - 143 Контейнер завершен с ненулевым кодом выхода 143
Позже число столбцов было уменьшено до 98, и оно отлично работало с тем же размером кучи и конфигурациями карты.Есть ли какие-либо ограничения на количество столбцов или какие-либо конкретные конфигурации для поддержки большего количества столбцов