Не совсем правильный взгляд на это. Исполнитель ничего не держит, он просто работает.
Раздел обрабатывается Ядром, назначенным Исполнителю. Исполнитель обычно имеет 1 ядро, но может иметь более 1 такого ядра.
Приложение имеет действия, которые переводят на 1 или более заданий.
Задание имеет этапы (основанные на границах тасования).
Этапы имеют задачи, число которых зависит от количества разделов.
Параллельная обработка разделов зависит от количества ядер, выделенных исполнителям.
Spark масштабируется с точки зрения ядер, памяти и диска. Последние два в связи с вашими вопросами означают, что, если все разделы не могут вписаться в память на рабочем месте для вашей работы, то этот раздел или более полностью попадет на диск.