Друидские истории с 2 монтировками EBS - PullRequest
0 голосов
/ 22 апреля 2020

Мы используем инкубацию Друида 0.16

У нас есть 2 крепления EBS на исторических узлах. Мы замечаем, что когда поступает запрос на запись в
Historicals всегда пытается записать в первое доступное монтирование и не балансирует его между монтируемыми / томами. Это приводит к тому, что одно монтирование всегда заполняется, что приводит к таймауту хронологии.

Любопытно, есть ли свойство конфигурации, которое необходимо установить, чтобы убедиться, что хронологии балансируют между монтировками

Любой высоко ценится помощь / руководство

Время выполнения Conf:

[centos@ip-xx-xxx-x-xx historical]$ cat runtime.properties
druid.service=druid/historical

druid.cache.type=caffeine
druid.cache.expireAfter=10800000
druid.cache.sizeInBytes=4563402752
druid.historical.cache.useCache=true
druid.historical.cache.populateCache=true
druid.historical.cache.unCacheable=[]

druid.processing.numThreads=15
druid.processing.numMergeBuffers=4
druid.processing.buffer.sizeBytes=1073741824

druid.server.maxSize=4164084039680
druid.server.http.queueSize=288
druid.server.http.numThreads=96
druid.server.http.defaultQueryTimeout=60000
druid.server.http.maxQueryTimeout=120000

druid.segmentCache.locations=[{"path":"/mnt/druid/segments","maxSize":2082042019840},{"path":"/mnt2/druid/segments","maxSize":2082042019840}]

[centos@ip-xx-xxx-x-xx historical]$ df -h
Filesystem      Size  Used Avail Use% Mounted on
devtmpfs         31G     0   31G   0% /dev
tmpfs            31G     0   31G   0% /dev/shm
tmpfs            31G  321M   31G   2% /run
tmpfs            31G     0   31G   0% /sys/fs/cgroup
/dev/nvme0n1p1   60G  4.7G   56G   8% /
/dev/nvme1n1    2.0T  1.9T   87G  96% /mnt
/dev/nvme2n1    2.0T   79G  1.9T   4% /mnt2
tmpfs           6.2G     0  6.2G   0% /run/user/1084

Спасибо

...