Быстро большой поворот данных - PullRequest
0 голосов
/ 29 июня 2011

Мы разрабатываем продукт, который можно использовать для разработки прогностических моделей, нарезки и нарезки данных для обеспечения BI.

У нас есть два вида требований доступа к данным.

Для прогнозного моделирования нам необходимо ежедневно читать данные и делать их построчно.Для этого достаточно обычной базы данных SQL Server, и у нас не возникает никаких проблем.

В случае нарезки и нарезания данных огромных размеров, таких как 1 ГБ данных, скажем, 300 миллионов строк.Мы хотим легко повернуть эти данные с минимальным временем отклика.

В текущей базе данных SQL возникают проблемы со временем отклика.

Мы хотели бы, чтобы наш продукт работал на любом обычном клиентском компьютере с 2 ГБ ОЗУ с процессором Core 2 Duo.

Я хотел бы знать, как хранить эти данные, а затем как я могу создатьповоротный опыт для каждого измерения.

В идеале у нас будут данные, скажем, ежедневных продаж по продажам по регионам по продуктам для крупной корпорации.Затем мы хотели бы нарезать его и нарезать кубиками на основе любого измерения, а также иметь возможность выполнять агрегирование, уникальные значения, максимальные, минимальные, средние значения и некоторые другие статистические функции.

Ответы [ 2 ]

1 голос
/ 05 июля 2011

Вы также можете использовать PowerPivot для этого.Это бесплатное дополнение для Excel 2010, которое позволяет обрабатывать большие наборы данных, нарезать их кубиками и т.д.

Если вы хотите кодировать его, вы можете подключиться к базе данных PowerPivot (фактически куб SSAS ), использующий соединитель базы данных SSAS

Надеюсь, что это пригодится ..

1 голос
/ 30 июня 2011

Я бы построил куб в памяти поверх этих данных. В качестве примера: icCube имеет время отклика менее секунды для 3/4 мер по 50M строкам на одном ядре i5 - без кеша или предварительной агрегации (т. Е. Это время отклика постоянно в все размеры).

Свяжитесь с нами напрямую для получения более подробной информации о том, как интегрировать его в ваш продукт.

...