Что делать, если объем памяти, используемой при использовании Dask-ML, продолжается - PullRequest
0 голосов
/ 28 мая 2020

Я использую Dask-ML для запуска некоторого кода, который использует довольно много оперативной памяти во время обучения. Сам по себе обучающий набор данных невелик, но он во время обучения использует довольно много оперативной памяти. Я продолжаю получать следующее сообщение об ошибке, хотя я пытался использовать другие значения для n_jobs:

distributed.nanny - WARNING - Worker exceeded 95% memory budget. Restarting

Что я могу сделать?

Ps: Я также пробовал использовать ядро ​​Kaggle (что позволяет использовать до 16 ГБ ОЗУ), и это не сработало. Итак, я сейчас пробую Dask-ML. Я также только что подключился к кластеру Dask, используя значения параметров по умолчанию, с кодом ниже:

from dask.distributed import Client
import joblib

client = Client()

with joblib.parallel_backend('dask'):
    # My own codes

1 Ответ

1 голос
/ 28 мая 2020

В Dask есть подробная страница с методами, помогающими с управлением памятью . Также вас может заинтересовать настройка разлива на диск Dask worker . Например, скорее

...