У меня есть хранилище данных db2 ese 9.7 non-dpf, использующее сжатие данных с 20 ТБ данных, которое получает 100 миллионов строк в день при нагрузках каждые 10 минут и еще один миллион в день при 50 000 импортах каждый день. Кроме того, существует небольшой объем транзакционных данных, связанных с двумя другими большими наборами данных.
В настоящее время мы используем резервные копии на уровне приложений и полагаемся на загрузку ранее экспортированных сводных таблиц или повторную загрузку 100 миллионов строк в день в случае восстановления. Но ради небольшого количества транзакций и импорта - я бы хотел, чтобы онлайн-резервные копии.
Однако, похоже, что для оперативного резервного копирования табличных пространств требуется первоначальное автономное резервное копирование. И это проблема, даже если я могу перенаправить автономное резервное копирование в / dev / null, автономное резервное копирование займет около 48 часов простоя. Что недопустимо. И может потребоваться снова в какой-то момент в будущем.
В какой-то момент мы, вероятно, разделим это на 8+ разделов, и это помогло бы и этому, и сборкам индекса загрузки. Но это может не произойти какое-то время, и трудно оправдать задачи, которые не нужны в первую очередь.
РЕДАКТИРОВАТЬ. Причина, по которой мы изначально не использовали DPF, и почему это не является основной проблемой для наших запросов, состоит в том, что более 99% наших запросов попадают в сводные таблицы, а 1% - в глубину. Таблица с 3+ миллиардами строк в месяц почти всегда может использовать преимущества разбиения таблиц, MDC и индексов, чтобы сканировать только гораздо меньшее количество. Это приводит к тому, что традиционная эвристика, касающаяся количества данных на процессор, не всегда применима.
Есть ли способ обойти это требование автономного резервного копирования? Какие-нибудь сторонние инструменты, которые могут мне помочь? Любые другие предложения?