Сохранить данные memcache в файл или базу данных - PullRequest
1 голос
/ 09 марта 2012

У нас есть веб-сайт, который выполняет финансовое моделирование, и memcache требуется время для создания своего кэша.Например, через 1 неделю число обращений составляет только 48%, а используемый кэш - 2GB (из выделенных 5GB).Поскольку мы не хотим терять этот кеш в случае сбоя сервера или его перезапуска, мы хотели бы сохранить его где-нибудь.

В: Каковы наилучшие варианты хранения содержимогоmemcache кешировать где-нибудь постоянное (и восстанавливать это содержимое)?

До сих пор мы не видели, чтобы memcache достигал точки, в которой % попаданий не улучшается.Мы знаем, что быстро достигаем 30% совпадений с 300MB данными, что соответствует кешированию общего содержимого.После этого объекты становятся намного больше и создаются реже.Глядя на наши графики мунинов, я бы сказал, что мы можем достичь наших лучших % хитов в течение 2-3 месяцев.Я действительно думаю, что у нас есть случай для сохранения наших данных memcache.

enter image description here

К вашему сведению Я не добавляю график, показывающий % попаданий / промахов, потому что он развивается так медленночто это не совсем читабельно.

Ответы [ 2 ]

1 голос
/ 24 мая 2012

Я бы не советовал использовать Redis в финансовой производственной среде, сейчас она нестабильна. Это то, за чем нужно следить в будущем.

CouchBase - это решение.

Вы также можете использовать repcached (http://repcached.lab.klab.org/)) для репликации данных memcache на 2-й демон memcache. В случае сбоя первого демона у вас все еще есть все данные memcache. Вы также можете использовать этот тип установки для балансировки использования memcache если хотите, я уже давно пользуюсь им и очень доволен его производительностью.

1 голос
/ 15 марта 2012

Вы можете попробовать:

Или вы можете найти большеСоветы по StackOverflow здесь: альтернатива memcached, которая может сохраняться на диске

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...