У меня есть кластер kafka, развернутый на AWS, с 6 узлами, сгруппированными в 3 группы автоматического масштабирования, наш срок хранения установлен в 7 дней. Мы используем EBS в качестве нашего магазина Kafka. По мере того, как мы масштабируем систему, с большим количеством данных в хранилище заканчивается Мы планируем удвоить размер нашего магазина.
AWS имеет процедуру для изменения тома EBS для экземпляра EC2: - Измените том - Go для экземпляра EC2 для этого тома, запустите sudo resize2fs / dev / xvdf - Подождите для оптимизации тома расти от 0 до 100%. - Отслеживать показатели Kafka на наличие свободного дискового пространства, в пределах реплицируемых разделов, использования ЦП, использования памяти и т. Д. c.
Однако мы обнаруживаем, что нам необходимо повторно активировать службу Kafka после расширения файловой системы до новый размер магазина. В противном случае узел не принимает данные для любого раздела. Таким образом, мы наблюдали увеличение количества реплицируемых разделов, увеличение загрузки процессора, увеличение использования памяти.
Вопрос в том, почему? Как правильно увеличить размер тома без простоев?