Думаю, вам стоит уточнить детали. Как часто вы хотите читать, в чем причина? Et c. Если вы дадите какой-то контекст, мы могли бы помочь лучше?
Судя по вашему фрагменту кода, проще всего было бы сделать al oop. и прочтите его в массиве.
list = []
for i in range(150):
list.append(spark.read.json('s3://mybucket/f' + (i + 1)))
Однако, если вы предоставите более подробную информацию, я уверен, что этот ответ можно улучшить
Редактировать на основе комментариев
Если вы хотите использовать объединение в DataFrames, проще всего будет импортировать имплициты:
import spark.implicits._
var df = spark.emptyDataFrame
for i in range(150):
df = df.union(spark.read.json('s3://mybucket/f' + (i + 1))))
Обратите внимание, что это должно работать с Spark 2.x и выше:
https://sparkbyexamples.com/spark/spark-how-to-create-an-empty-dataframe/ https://sparkbyexamples.com/spark/spark-dataframe-union-and-union-all/