Не удается создать ноутбук Jupyter в HDInsight 4.0 - PullRequest
1 голос
/ 31 января 2020

Я использую Azure HDInsight 4.0 (Spark 2.4). Когда я пытаюсь создать новый блокнот Jupyter (Spark, но я получаю похожую ошибку для ноутбуков PySpark), я получаю следующее сообщение об ошибке:

Traceback (most recent call last): File "/usr/bin/anaconda/lib/python2.7/site-packages/notebook/base/handlers.py", line 457, in wrapper result = yield gen.maybe_future(method(self, *args, **kwargs)) File "/usr/bin/anaconda/lib/python2.7/site-packages/tornado/gen.py", line 1015, in run value = future.result() File "/usr/bin/anaconda/lib/python2.7/site-packages/tornado/concurrent.py", line 237, in result raise_exc_info(self._exc_info) File "/usr/bin/anaconda/lib/python2.7/site-packages/tornado/gen.py", line 1021, in run yielded = self.gen.throw(*exc_info) File "/usr/bin/anaconda/lib/python2.7/site-packages/notebook/services/contents/handlers.py", line 216, in post yield self._new_untitled(path, type=type, ext=ext) File "/usr/bin/anaconda/lib/python2.7/site-packages/tornado/gen.py", line 1015, in run value = future.result() File "/usr/bin/anaconda/lib/python2.7/site-packages/tornado/concurrent.py", line 237, in result raise_exc_info(self._exc_info) File "/usr/bin/anaconda/lib/python2.7/site-packages/tornado/gen.py", line 285, in wrapper yielded = next(result) File "/usr/bin/anaconda/lib/python2.7/site-packages/notebook/services/contents/handlers.py", line 171, in _new_untitled model = yield gen.maybe_future(self.contents_manager.new_untitled(path=path, type=type, ext=ext)) File "/usr/bin/anaconda/lib/python2.7/site-packages/notebook/services/contents/manager.py", line 338, in new_untitled return self.new(model, path) File "/usr/bin/anaconda/lib/python2.7/site-packages/notebook/services/contents/manager.py", line 364, in new model = self.save(model, path) File "/var/lib/.jupyter/jupyterazure/jupyterazure/httpfscontentsmanager.py", line 84, in save self.create_checkpoint(path) File "/usr/bin/anaconda/lib/python2.7/site-packages/notebook/services/contents/manager.py", line 459, in create_checkpoint return self.checkpoints.create_checkpoint(self, path) File "/usr/bin/anaconda/lib/python2.7/site-packages/notebook/services/contents/checkpoints.py", line 79, in create_checkpoint model = contents_mgr.get(path, content=True) File "/var/lib/.jupyter/jupyterazure/jupyterazure/httpfscontentsmanager.py", line 56, in get 'metadata': {}}) File "/var/lib/.jupyter/jupyterazure/jupyterazure/model.py", line 45, in create_model_from_blob nbformat.version_info[0]) File "/usr/bin/anaconda/lib/python2.7/site-packages/nbformat/__init__.py", line 75, in reads nb = convert(nb, as_version) File "/usr/bin/anaconda/lib/python2.7/site-packages/nbformat/converter.py", line 54, in convert "version doesn't exist" % (to_version)) ValueError: Cannot convert notebook to v5 because that version doesn't exist

После этого новый Записная книжка действительно появляется на главном экране, но если я пытаюсь открыть ее, я получаю следующее всплывающее сообщение:

An unknown error occurred while loading this notebook. This version can load notebook formats v4 or earlier. See the server log for details.

Я могу просто отлично создать ноутбук на идентичном HDI Кластер 3.6, но не на 4.0. (Мне нужен 4.0, потому что мне нужно использовать Spark 2.4.)

Кто-нибудь испытывал / разрешал это раньше?

1 Ответ

1 голос
/ 31 января 2020

Недавно мы видели пару вопросов по одной и той же проблеме. Вы можете выполнить следующие шаги для решения проблемы.

Шаги для решения этой проблемы:

Шаг 1: Подключиться к головному узлу через s sh и измените содержимое файла - /usr/bin/anaconda/lib/python2.7/site-packages/nbformat/_version.py, замените 5 на 4 .

enter image description here

Изменить это для:

version_info = (4, 0, 3)

enter image description here

Шаг 2: Перезапустите службу Jupyter через Ambari.

enter image description here

Для получения дополнительной информации см. HDInshight Создать, а не создать блокнот Jupyter

Надеюсь, это поможет. Сообщите нам, если у вас возникнут дополнительные вопросы.

...