Если предположить очень большой объем конверсионных событий (миллионы в день или более), один механизм хранения (MongoDB или что-либо еще) вам не поможет.Что вам нужно, так это возможность запускать задания по сокращению карты для данных, чтобы рассчитать аналитику.Вы можете масштабировать свой кластер по мере необходимости для достижения производительности почти в реальном времени.
Варианты бесплатного / открытого источника, которые я могу предложить, это Hadoop (и, вероятно, HBase и Hive) или Riak.Есть и другие варианты - я предлагаю только эти два, потому что у меня есть личный опыт работы с ними в масштабной производственной среде.В настоящее время мы используем Hadoop для обеспечения работы аналитической системы, обрабатывающей миллиарды событий в день.
Если вы не хотите заниматься своими делами и способны и готовы платить (много!), Тогда взгляните на GreenPlum иVertica.
Я буду рад поделиться с вами информацией о потенциальных проектах решений, но мне потребуется больше данных о том, чего вы пытаетесь достичь - масштабировать, использовать варианты и т. Д.