Недавно я выполнил тест с мембраной, увеличивая 60 миллионов ключей, каждый ключ размером 20-30 байт, значения меньше значения целого числа. Этот кластер имел 3 блока по 16 ГБ, 15 ГБ выделено для одного блока (репликация = 1) в мембране. Сборка membase-server-community_x86_64_1.7.1.1
на 64-битных Ubuntu Lucid Box.
Результаты:
Изначально 10 миллионов ключей находились на 3 ГБ памяти. (3 миллиона ключей / ГБ)
@ 60 миллионов ключей располагались на 45 ГБ памяти. (1,33 миллиона ключей / ГБ)
Для сравнения, redis обрабатывает 9-10 миллионов ключей / ГБ при 60 миллионах ключей. Это соотношение ключей на ГБ является неизменным независимо от размера набора данных.
Вопрос:
Membase, похоже, плохо масштабируется, когда сталкивается с ключевыми тяжелыми наборами данных. Есть ли какие-либо настройки / настройки, которые могут помочь Membase в этом случае использования?
Спасибо.
P.S Я перешел с redis на мембрану, потому что последняя, казалось, обеспечивала большую надежность при сбое кэша. Однако это снижение производительности с большими наборами данных является слишком болезненным.