Передача --num-executors
и использование более одного ядра на исполнителя приведет к созданию в Spark более одного потребительского потока
Каждый потребительский поток сопоставляется с одним разделом.
Сделайте общее количество потоков равным общему количеству разделов, чтобы максимизировать распределенную пропускную способность