Я читал другие похожие темы и искал в Google, чтобы найти лучший способ, но не смог найти никакого подходящего решения.
У меня есть большая большая таблица в BigQuery (предположим, вставка 20 миллионов строк в день).Я хочу иметь около 20 миллионов строк данных и около 50 столбцов в python / pandas / dask для некоторого анализа.Я попытался использовать методы API-хранилищ bqclient, panda-gbq и bq, но для того, чтобы в Python было 5 миллионов строк, требуется 30 минут.Есть ли другой способ сделать это?Даже какой-нибудь сервис Google, который может сделать подобную работу?