В среде Spark, любой код, который вы пишете в преобразовании, таком как map, flatMap и т. Д., Будет выполняться на исполнителе. Чтобы вызвать преобразование, вам нужен RDD, созданный с использованием набора данных, на котором вы пытаетесь вычислить. Чтобы материализовать СДР, вам нужно вызвать действие, чтобы к данным применялись преобразования.
Я полагаю, что в вашем случае вы написали искровое приложение, которое читает данные jdbc. В таком случае все будет выполнено в драйвере, а не в исполнителе.
Если вы этого еще не сделали, попробуйте создать Dataframe с использованием this API.