Мы разрабатываем продукт, который можно использовать для разработки прогностических моделей, нарезки и нарезки данных для обеспечения BI.
У нас есть два вида требований доступа к данным.
Для прогнозного моделирования нам необходимо ежедневно читать данные и делать их построчно.Для этого достаточно обычной базы данных SQL Server, и у нас не возникает никаких проблем.
В случае нарезки и нарезания данных огромных размеров, таких как 1 ГБ данных, скажем, 300 миллионов строк.Мы хотим легко повернуть эти данные с минимальным временем отклика.
В текущей базе данных SQL возникают проблемы со временем отклика.
Мы хотели бы, чтобы наш продукт работал на любом обычном клиентском компьютере с 2 ГБ ОЗУ с процессором Core 2 Duo.
Я хотел бы знать, как хранить эти данные, а затем как я могу создатьповоротный опыт для каждого измерения.
В идеале у нас будут данные, скажем, ежедневных продаж по продажам по регионам по продуктам для крупной корпорации.Затем мы хотели бы нарезать его и нарезать кубиками на основе любого измерения, а также иметь возможность выполнять агрегирование, уникальные значения, максимальные, минимальные, средние значения и некоторые другие статистические функции.