надеюсь, вы все в порядке. Я читаю файлы из каталога с помощью структурированной потоковой передачи.
schema = StructType([
StructField("RowNo", StringType()),
StructField("InvoiceNo", StringType()),
StructField("StockCode", StringType()),
StructField("Description", StringType()),
StructField("Quantity", StringType()),
StructField("InvoiceDate", StringType()),
StructField("UnitPrice", StringType()),
StructField("CustomerId", StringType()),
StructField("Country", StringType()),
StructField("InvoiceTimestamp", StringType())
])
data = spark.readStream.format("orc").schema(schema).option("header", "true").option("path", "<path_here>").load()
После применения некоторых преобразований мне нравится сохранять выходные файлы размером 100 МБ.