Я работаю над проектом, который должен хранить очень большие наборы данных и связанные справочные данные.Я никогда не сталкивался с проектом, который требовал бы таблиц такого размера.Я доказал, что по крайней мере одна среда разработки не может справиться на уровне базы данных с обработкой, требуемой сложными запросами к представлениям, которые генерирует прикладной уровень (представления с несколькими внутренними и внешними объединениями, группированием, суммированием и усреднением для таблиц с 90 миллионами строк).
СУБД, с которой я тестировал, - это DB2 в AIX.Неудачная среда разработки была загружена с 1/20 тома, который будет обработан в производственном процессе.Я уверен, что производственное оборудование превосходит аппаратное и промежуточное оборудование, но я просто не верю, что оно справится с огромным объемом данных и сложностью запросов.
До сбоя среды разработкипотребовалось более 5 минут, чтобы вернуть небольшой набор данных (несколько сотен строк), созданный сложным запросом (много объединений, большое количество групп, суммирование и усреднение) для больших таблиц.
Чувство моей интуициизаключается в том, что архитектура БД должна измениться, чтобы агрегации, представленные в настоящее время представлениями, выполнялись как часть непикового пакетного процесса.
Теперь на мой вопрос.Люди, которые утверждают, что имеют опыт такого рода вещей (а я нет), уверены, что мои опасения необоснованны.Они?Может ли современная СУБД (SQL Server 2008, Oracle, DB2) справиться с объемом и сложностью, которую я описал (учитывая соответствующее количество оборудования), или мы находимся в сфере технологий, таких как Google BigTable?
I 'Я надеюсь получить ответы от людей, которым фактически приходилось работать с таким объемом на не теоретическом уровне.
Характер данных - финансовые транзакции (даты, суммы, географические местоположения, предприятия), поэтому почтивсе типы данных представлены.Все справочные данные нормализованы, следовательно, множественные объединения.