У меня есть файл размером около 1 ГБ и длиной 19955931
строки, когда я передаю его в hadoop, он возвращает пустые данные.
Однако, если я создал новый файл, используя head с тем же количеством строки
head -19955931 my.log > my_new_copy.log
Hadoop возвращает правильные непустые данные.
Я полностью озадачен этим поведением, ожидал ли Hadoop определенный формат метафайла?