У меня есть вопрос. Я работаю над загрузкой очень большой таблицы, имеющей существующие данные порядка 150 миллионов записей, которая будет продолжать расти, добавляя 1 миллион записей ежедневно. Несколько дней назад ETL начал давать сбой даже после работы в течение 24 часов. В DFT у нас есть исходный запрос, извлекающий 1 миллион записей, который СМОТРИТ против таблицы Destination, содержащей 150 миллионов записей, для проверки на наличие новых записей. Он не работает, поскольку LOOKUP не может хранить данные для 150 миллионов записей. Я попытался изменить LOOKUP на Merge Join безуспешно. Можете ли вы предложить альтернативные варианты для успешной загрузки данных в большую таблицу. Более того, я никак не могу уменьшить размер таблицы назначения. У меня уже есть индексы на все необходимые столбцы. Надеюсь, я ясно объясню сценарий.