Концепция, аналогичная локальным данным в hadoop, но я не хочу использовать hdfs.
У меня есть 3 работника dask.
Я хочу, например, вычислить большое имя файла csvmydata.csv.
Я разделяю mydata.csv на небольшой файл (mydata_part_001.csv ... mydata_part_100.csv) и сохраняю в локальной папке / данных на каждом работнике, например,
хранилище worker-01mydata_part_001.csv - mydata_part_030.csv в локальной папке / data
worker-02 store mydata_part_031.csv - mydata_part_060.csv в локальной папке / data
worker-03 store mydata_part_061.csv - mydata_part_partCSV в локальной папке / данных
Как использовать Dask Compute для MyData ?? Спасибо.