Я только что закончил настройку Dask в кластере Kubernetes, используя Helm, и теперь, когда я хочу сделать базовые учебные пособия на ноутбуке jupyter, я сталкиваюсь со следующей ошибкой:
Также я попытался в другом блокноте проанализировать набор данных объемом 40 ГБ, но очень медленно выполняются следующие команды (я просто импортирую 40 ГБ из GCS, а затем создаю value_counts в двоичном столбце):
import dask.dataframe as ddf
import gcsfs
fs = gcsfs.GCSFileSystem(project='tme-chrome')
fs.ls('tme-churning')
df = dd.read_csv('gs://tme-churning/*.csv')
df['churning'].value_counts().compute()
Большое спасибо за вашу помощь.Кажется, я что-то здесь упускаю.