Я могу использовать dask.dataframe.read_sql_table для чтения данных, например, df = dd.read_sql_table(table='TABLE', uri=uri, index_col='field', npartitions=N)
df = dd.read_sql_table(table='TABLE', uri=uri, index_col='field', npartitions=N)
Какие будут следующие (лучшие) шаги для сохранения их в виде файла паркета в Azure хранилище BLOB-объектов?
Из моего небольшого исследования есть несколько вариантов:
$ pip install adlfs
dd.to_parquet( df=df, path='absf://{BLOB}/{FILE_NAME}.parquet', storage_options={'account_name': 'ACCOUNT_NAME', 'account_key': 'ACCOUNT_KEY'}, )