Я использую Google Cloud Datalab для моего проекта ML.Одна из моих данных находится в таблице больших запросов, которая содержит миллионы записей (текстовые данные) со многими столбцами.Я создал pandas dataframe из таблицы bigquery, преобразовал его в dask dataframe (с 5 разделами) и провел обработку данных.
Теперь у меня есть этот dask dataframe, который я хочу сохранить в bigquery или преобразовать в паркетные файлы и сохранить их в моем gcp хранилище.Было бы здорово услышать варианты от сообщества.Спасибо.