У меня есть файлы данных hdfs, которые были изначально созданы заданием mapreduce с настройками вывода, как показано ниже,
job.setOutputKeyClass(BytesWritable.class);
job.setOutputValueClass(BytesWritable.class);
job.setOutputFormatClass(SequenceFileAsBinaryOutputFormat.class);
SequenceFileAsBinaryOutputFormat.setOutputCompressionType(job, CompressionType.BLOCK);
Теперь я пытаюсь прочитать эти файлы с помощью Flink DataSet API (версия 1.5.6),Я смотрю в flink doc , но не могу понять, как это сделать.
- В документе есть API readSequenceFile, я просто не могу найти его вкласс ExecutionEnvironment, я могу найти «readCsvFile», «readTextFile», но не этот.
- Существует общий «readFile (inputFormat, path)», но я понятия не имею, что такое inputFormat, кажетсяэтот API не принимает формат ввода hadoop, такой как 'SequenceFileAsBinaryInputFormat'.
Может кто-нибудь, пожалуйста, пролить немного света здесь?Большое спасибо.