Сбой задания блоков данных без сообщения об ошибке - PullRequest
0 голосов
/ 15 марта 2020

Я впервые пишу вопрос. У меня очень странная ситуация. Итак, я в основном отправляю скрипт pyspark через задание на блоки данных с параметрами задания и кластера. Ниже приведены параметры кластера, которые я использую:

    'spark_version': '6.1.x-scala2.11',
    'node_type_id': 'Standard_DS12_v2',
    'autoscale': {'min_workers': 1, 'max_workers': 4},
    'cluster_log_conf': {
        'dbfs': {
            'destination': 'dbfs:/logs/{job_id}/logs'.format(job_id=job_id)
        }
    },
    'spark_env_vars': {
        'PYSPARK_PYTHON': '/databricks/python3/bin/python3',
    },...

Цель сценария pyspark в основном состоит в обучении модели обучения scikit и прогнозировании некоторых тестовых данных. Во время обучения, однако, функция предсказания также вызывается для вычисления некоторых гиперпараметров, используемых для настройки модели, что прекрасно работает. Тем не менее, когда функция предсказания вызывается при прогнозировании тестовых данных, она завершается с ошибкой в ​​методе Scikit-Learn's Prognit_proba без сообщения об ошибке ...

Я попытался попытаться поймать эту часть безуспешно. Единственные отзывы, которые я получаю из журналов блоков данных: «Исключение: задание« Блоки данных »не было успешно завершено. Возвращенное состояние результата было СБОЙ».

Единственная возможная причина, которую я имею в виду в настоящее время, это ошибка нехватки памяти , но когда это произошло ранее (с другими параметрами кластера), журналы фактически возвращают ошибку нехватки памяти.

Любая и вся помощь очень ценится.

...