Я запускаю dask локально, используя распределенный планировщик на моей машине с 8 ядрами. По инициализации вижу:
Что выглядит правильно, но меня смущает поток задач в диагностике (показанный ниже):
Я ожидал 8 строк, соответствующих 8 рабочим / ядрам, это неправильно?
Спасибо
AJ
Я добавил код, который я использую:
import dask.dataframe as dd
from dask.distributed import Client, progress
client = Client()
progress(client)
# load datasets
trd = (dd.read_csv('trade_201811*.csv', compression='gzip',
blocksize=None, dtype={'Notional': 'float64'})
.assign(timestamp=lambda x: dd.to_datetime(x.timestamp.str.replace('D', 'T')))
.set_index('timestamp', sorted=True))