Мы пытаемся с помощью Dask Distributed сделать несколько сложных вычислений и визуализацию для внешнего интерфейса.
Теперь у нас есть один рабочий с gunicorn, который подключается к существующему кластеру Distributed Dask, рабочий загружает данные в настоящее время с read_csv
и сохраняться в кластере.
Я пытался использовать pickle для сохранения фьючерсов с сохраняемого кадра данных, но это не работает.
Мы хотим иметь несколько рабочих-оружейников, каждыйс другим клиентом, подключающимся к тому же кластеру и использующим те же данные, но с большим количеством работников каждый загружает новый фрейм данных.