Узлы Spark продолжают печатать GC (ошибка распределения), и никакие задачи не выполняются - PullRequest
2 голосов
/ 30 марта 2019

Я выполняю задание Spark с использованием Scala, но оно застревает, не выполняя и задачи моих рабочих узлов.

В настоящее время я отправляю это в Livy, который отправляет в наш Spark Cluster с 8 ядрами и 12 ГБ.ОЗУ со следующей конфигурацией:

data={
    'file': bar_jar.format(bucket_name),
    'className': 'com.bar.me',
    'jars': [
        common_jar.format(bucket_name),
    ],
    'args': [
        bucket_name,
        spark_master,
        data_folder
    ],
    'name': 'Foo',
    'driverMemory': '2g',
    'executorMemory': '9g',
    'driverCores': 1,
    'executorCores': 1,
    'conf': {
        'spark.driver.memoryOverhead': '200',
        'spark.executor.memoryOverhead': '200',
        'spark.submit.deployMode': 'cluster'
    }
}

Журналы узлов затем бесконечно заполняются: 2019-03-29T22:24:32.119+0000: [GC (Allocation Failure) 2019-03-29T22:24:32.119+0000: [ParNew: 68873K->20K(77440K), 0.0012329 secs] 257311K->188458K(349944K), 0.0012892 secs] [Times: user=0.00 sys=0.00, real=0.00 secs]

Проблема в том, что следующие этапы и задачи не выполняются, поэтому поведениедовольно неожиданно.Tasks won't run

...