Я не верю, что искра позволяет вам компенсировать или разбивать на страницы ваши данные.
Но вы можете добавить индекс, а затем разбить на страницы, сначала:
from pyspark.sql.functions import lit
data_df = spark.read.parquet(PARQUET_FILE)
count = data_df.count()
chunk_size = 10000
# Just adding a column for the ids
df_new_schema = data_df.withColumn('pres_id', lit(1))
# Adding the ids to the rdd
rdd_with_index = data_df.rdd.zipWithIndex().map(lambda (row,rowId): (list(row) + [rowId+1]))
# Creating a dataframe with index
df_with_index = spark.createDataFrame(chunk_rdd,schema=df_new_schema.schema)
# Iterating into the chunks
for chunk_size in range(0,count+1 ,chunk_size):
initial_page = page_num*chunk_size
final_page = initial_page + chunk_size
where_query = ('pres_id > {0} and pres_id <= {1}').format(initial_page,final_page)
chunk_df = df_with_index.where(where_query).toPandas()
train_on_batch(chunk_df) # <== Your function here
Это не оптимально он плохо использует искру из-за использования pandas фрейма данных, но решит вашу проблему.
Не забудьте сбросить идентификатор, если это повлияет на вашу функцию.