Я использую конвейер машинного обучения для сегментации очень больших трехмерных изображений.Я...
Проблема Я пытаюсь отправить объект CPython объемом 2 ГБ, доступный только для чтения (может быть...
У меня есть CSV-файл с около 2 миллионов строк.Этот CSV-файл имеет столбец, который я установил в...
Я новичок в #GCP, и мой вопрос может показаться тривиальным (извините за это).Я уже разработал...
Слияние нескольких dask-данных приводит к сбою моего компьютера. Привет, Я пытаюсь объединить...
Я прочитал около 15 CSV-файлов: df = dd.read_csv("gs://project/*.csv", blocksize=25e6,...
Я пытаюсь эффективно нарезать два индекса в Dask. Я пытался использовать .loc на втором уровне, но...
Ниже находится панель управления потоком задач.Что происходит в пустом пространстве?Это когда мой...
Мне нужно установить несколько пакетов python в Docker-контейнер через requirements.txt, используя...
Я застрял в странном месте.У меня есть куча отложенных вызовов функций, которые я хочу выполнить в...
В распределенной Dask документации они имеют следующую информацию: Например, разработчики Dask...
У меня есть dask массивы, которые представляют кадры видео и я хочу создать несколько видеофайлов.Я...
Я пытался получить самые маленькие строки для группы, следуя методу из этого вопроса .Решение...
Я пытаюсь выбрать только одну строку из dask.dataframe с помощью команды x.loc[0].compute()
У меня есть две большие таблицы, одна из которых сравнительно небольшая - 8 миллионов строк и один...
Использование cx_Oracle коннектора для чтения в pandas df работает нормально, например: import...
Я использую Dask Distirbuted, статический кластер (1 рабочий).Набор данных довольно мал (1 МБ) и...
Я настроил Dask и JupyterHub на кластере Kubernetes, используя Helm с помощью документации Dask:...
Я пытаюсь сделать что-то вроде resource = MyResource() def fn(x): something = dosemthing(x,...
Это более общий вопрос о том, как запустить «смущающе параллельные» проблемы с «планировщиками»...
Каково текущее состояние дел в отношении интеграции кэширования в графы с задержкой времени?У меня...
У меня есть два фрейма данных dataframe1: >df_case = dd.read_csv('s3://../.../df_case
@delayed def do_something(): # Does some work pass futures = [do_something() for x in range(100)]...
Я пытаюсь проиндексировать и сохранить большие CSV-файлы, которые не могут быть загружены в память
Какая альтернатива dask.compute(), если коллекция не помещается в памяти?Какое-то отображение...