Вы запускаете это на Dataproc? Если это так, вы можете просто отправить задание pyspark примерно так:
gcloud --project={YOUR_CLUSTERS_PROJECT} dataproc jobs submit pyspark \
{GCS_PATH_TO_JOB} \
--cluster {CLUSTER_NAME} \
-- {SPACE_DELIMITED_JOB_ARGUMENTS}
Хотя это и стоит, использование ядра pyspark jupyter заблокирует запуск задания (т. Е. В журналах будет указано, что задание ожидает ресурсы снова и снова).