Пытаюсь запустить Spark на Kubernetes по инструкции на официальном сайте: Spark Kubernetes . Я выполнил инструкции по созданию изображения, используя предоставленный ими сценарий, как показано ниже:
./bin/docker-image-tool.sh -r <repo> -t my-tag -p ./kubernetes/dockerfiles/spark/bindings/python/Dockerfile build
Для <repo>
я использовал pyspark. Моя искровая отправка для Kubernetes выглядит следующим образом:
./bin/spark-submit \
--master k8s://https://<ipaddress>:<port>\
--deploy-mode cluster \
--name spark-pi \
--class org.apache.spark.examples.SparkPi \
--conf spark.executor.instances=5 \
--conf spark.kubernetes.container.image=pyspark/spark-py:my-tag \
--conf spark.kubernetes.file.upload.path=/usr/local/spark/examples \
local:///usr/local/spark/examples/spark-examples_2.12-3.0.0.jar
Настройки кубернетов выглядят нормально, однако у модулей возникают проблемы с извлеченными изображениями, что приводит к перезапуску. Я не уверен, что у меня правильная номенклатура изображения.