Я запускаю Spark Cluster, и когда я выполняю приведенную ниже команду в блокноте Databricks, он выдает мне вывод:
dbutils.fs.ls("/mnt/test_file.json")
[FileInfo(path=u'dbfs:/mnt/test_file.json', name=u'test_file.json', size=1083L)]
Однако, когда я пытаюсь прочитать этот файл, яполучаю указанную ниже ошибку:
with open("mnt/test_file.json", 'r') as f:
for line in f:
print line
IOError: [Errno 2] No such file or directory: 'mnt/test_file.json'
В чем здесь проблема?Любая помощь / поддержка приветствуется.