Недавно мы перешли от дорогостоящего решения для хранения к Lizardfs с открытым исходным кодом для нашего решения распределенного хранения.Это довольно просто настроить и масштабировать, как только вы поймете основную концепцию.
Проверьте https://docs.lizardfs.com/introduction.html#architecture для быстрого обзора.Но пока забудьте про shadow master en meta logger.Вам нужно знать, что есть
a master : который регулирует трафик (убедитесь, что у него достаточно процессора)
chunkservers : которые фактически хранят данные.Используйте любой тип готового оборудования с несколькими жесткими дисками.
Клиенты: просто точки монтирования.Таким образом, вы можете получить гигантское крепление 50 ТБ, если хотите.Мастер скажет клиенту, где найти / сохранить файлы.Фактические данные передаются прямо с client-> chunkserver и обратно.
Вы можете добавить столько chunkservers, сколько хотите, мастер автоматически попытается сбалансировать использование хранилища между ними,Добавление хранилища - это вопрос добавления жестких дисков или добавления серверов.Они не обязательно должны быть настоящими машинами с «голым металлом», но это, вероятно, самое дешевое.
В lizardfs есть две удивительные функции, которые позволяют георепликацию.
- Цели (см. https://docs.lizardfs.com/adminguide/replication.html#standard-goals): Насколько важны файлы для вас. На уровне файлов / уровне папок вы можете определить, сколько раз файл должен быть реплицирован. Хотите ли вы 2 копии 3? 10? Вы можете определить цель в 2 копии длястарые файлы, которые просто существуют для целей архивирования и определяют цель в 4 копии на SSD-дисках для всех новых файлов.
Эти же цели можно также использовать для георепликации. Вы определяете, что ваши данныедолжно быть сохранено как минимум в двух разных местах с соответствующей маркировкой ваших серверов чанка (например, DC1 и DC2)
Информация о стойке (см.
https://docs.lizardfs.com/adminguide/advanced_configuration.html#configuring-rack-awareness-network-topology):, вы в основном определяете диапазоны IP-адресов, чтобы обучить систему, как выглядит ваша сеть. Таким образом, клиенты будут пытаться обслуживать файлы с ближайшего сервера.
Простота в настройке - это то, что продавало мне lizardfs. Я слышал очень хорошие вещи о Ceph, но настройка это другое дело ...
Сначала меня беспокоило то, насколько проверена технологияявляется / был. Так что я потратил немало исследований, чтобы выяснить, кто его использует. Orange Poland (крупный телекоммуникационный провайдер) является одним из пользователей. И Cloudweavers / opennebula фактически построил бизнес вокруг него продажа готовых решений .