Мы используем инкубацию Друида 0.16
У нас есть 2 крепления EBS на исторических узлах. Мы замечаем, что когда поступает запрос на запись в
Historicals всегда пытается записать в первое доступное монтирование и не балансирует его между монтируемыми / томами. Это приводит к тому, что одно монтирование всегда заполняется, что приводит к таймауту хронологии.
Любопытно, есть ли свойство конфигурации, которое необходимо установить, чтобы убедиться, что хронологии балансируют между монтировками
Любой высоко ценится помощь / руководство
Время выполнения Conf:
[centos@ip-xx-xxx-x-xx historical]$ cat runtime.properties
druid.service=druid/historical
druid.cache.type=caffeine
druid.cache.expireAfter=10800000
druid.cache.sizeInBytes=4563402752
druid.historical.cache.useCache=true
druid.historical.cache.populateCache=true
druid.historical.cache.unCacheable=[]
druid.processing.numThreads=15
druid.processing.numMergeBuffers=4
druid.processing.buffer.sizeBytes=1073741824
druid.server.maxSize=4164084039680
druid.server.http.queueSize=288
druid.server.http.numThreads=96
druid.server.http.defaultQueryTimeout=60000
druid.server.http.maxQueryTimeout=120000
druid.segmentCache.locations=[{"path":"/mnt/druid/segments","maxSize":2082042019840},{"path":"/mnt2/druid/segments","maxSize":2082042019840}]
[centos@ip-xx-xxx-x-xx historical]$ df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 31G 0 31G 0% /dev
tmpfs 31G 0 31G 0% /dev/shm
tmpfs 31G 321M 31G 2% /run
tmpfs 31G 0 31G 0% /sys/fs/cgroup
/dev/nvme0n1p1 60G 4.7G 56G 8% /
/dev/nvme1n1 2.0T 1.9T 87G 96% /mnt
/dev/nvme2n1 2.0T 79G 1.9T 4% /mnt2
tmpfs 6.2G 0 6.2G 0% /run/user/1084
Спасибо