Я запускаю работу pyspark в облаке баз данных.Мне нужно записать некоторые из файлов csv в файловую систему databricks (dbfs) как часть этой работы, а также мне нужно использовать некоторые собственные команды dbutils, такие как
#mount azure blob to dbfs location
dbutils.fs.mount (source="...",mount_point="/mnt/...",extra_configs="{key:value}")
Я также пытаюсь размонтировать один разфайлы были записаны в каталог монтирования.Но, когда я использую dbutils непосредственно в задании pyspark, происходит сбой с
NameError: name 'dbutils' is not defined
Должен ли я импортировать какой-либо пакет для использования dbutils в коде pyspark?Заранее спасибо.