Что ж, это не проблема.
N разделов, равных размеру блока файловой системы HDFS (подобной), будут созданы на рабочих узлах на каком-то этапе физически, что приведет к выполнению многих N небольших задач, легко помещается в 500 ГБ в течение всего срока службы приложения Spark.
Разделы и их эквивалент задач будут выполняться одновременно, в зависимости от количества выделенных вами исполнителей. Если у вас есть, скажем, M-исполнители с 1 ядром, то max M-задачи выполняются одновременно. Зависит также от расписания и режима выделения ресурсов.
Spark обрабатывает, как и любая ОС, ситуации размера и ресурсов, и, в зависимости от доступных ресурсов, можно сделать больше или меньше. Планировщик DAG играет роль во всем этом. Но здесь все будет просто.