(отправка от имени пользователя Snowflake)
У нас есть база данных, в которой хранятся необработанные данные из всех наших локальных источников. У моей команды есть своя собственная среда, в которой у нас есть полные права на создание стандартизированных каналов и / или таблиц / представлений и т. Д., Которые можно использовать в Power BI. Несколько дополнительных деталей:
- Окончательные таблицы 'feed' получены из операторов SQL, и большинство из них получают из более чем одной таблицы наших 'необработанных' данных.
- Необработанные данные таблицобновляется ежедневно.
Мой вопрос: какова наилучшая операция для полного обновления таблиц и каков стандартный рабочий процесс для этих операций? Наше текущее понимание, что один из этих процессов является лучшим:
- Использование
COPY INTO <stage>
затем COPY INTO <table>
. - Использование
STREAMS
для добавления дополнительных данных. - Использование
PIPES
(может совпадать с STREAMS) - Или упростить наши каналы для источников из одной таблицы и использовать материализованное представление.
Мы быв идеале следует избегать просмотра для повышения скорости потребления на уровне мощности. Рекомендовано
Tasks
, так как это кажется подходящим вариантом, поскольку им нужно обновлять финальную таблицу только один раз в день. (https://docs.snowflake.net/manuals/sql-reference/sql/create-task.html)
Любые другие рекомендации ??? СПАСИБО!