Я хочу загрузить кучу CSV-файлов в Apache Flink в указанном порядке, например, как определено схемой именования в именах файлов, которая может содержать некоторую информацию о временной отметке.
В Apache Spark я могу передавать файлы в набор данных, как только они перемещаются в определенный каталог (например, / data / staging) с атомарным перемещением файла следующим образом
Dataset<Row> fileStreamDf = spark.readStream()
.option("header", true)
.schema(schema)
.csv("/data/staging")
Затем я переместил бы файлы один за другим в указанном порядке, например, с помощью сценария bash, в этот промежуточный каталог.
Как мне добиться того же с помощью Apache Flink?