Хотите обработать очень большую запись файла последовательности в маленьких частях в Hadoop - PullRequest
0 голосов
/ 21 января 2020

У меня есть файл последовательности с очень большими записями (каждая запись размером 2 МБ), которая создает проблему при дальнейшей обработке из-за большого размера. Поэтому я хочу, чтобы он читался небольшими частями через RecordReader с заданным внешним размером c. Как мне этого добиться, не меняя размер сплита?

...