С помощью инструмента сборки (setuptools) мой код на Python упакован в формат .egg. Я хотел запустить этот пакет через задание в лазурных блоках данных.
Я могу выполнить пакет на моем локальном компьютере с помощью следующих команд.
spark-submit --py-files ./dist/hello-1.0-py3.6.egg hello/pi.py
1) Скопировал пакет в путь DBFS следующим образом,
work-space -> User -> Create -> Library -> Library Source (DBFS) -> Library Type (Python Egg) -> Uploaded
2) Создано задание с заданием в качестве спарк-отправки в новом режиме кластера
3) Ниже приведены параметры, настроенные для задачи,
["--py-files","dbfs:/FileStore/jars/8c1231610de06d96-hello_1_0_py3_6-70b16.egg","hello/pi.py"]
Факт: / databricks / python / bin / python: невозможно открыть файл '/databricks/driver/hello/hello.py': [Errno 2] Нет такого файла или каталога
Ожидается: задание должно быть успешно выполнено.