Как получить все диски через metricbeat? - PullRequest
0 голосов
/ 28 января 2019

У меня три диска, я хочу получить три диска в кибане, но я могу получить только один диск.Я добавил имя этих дисков в файл конфигурации system.yml, но все равно только один / dev / xvda1 получает в кибане.

Мои диски:

[vinit@ip-XXX-XX-X-XXX modules.d]$ df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/xvda1       99G   30G   69G  31% /
devtmpfs        2.0G   56K  2.0G   1% /dev
tmpfs           2.0G     0  2.0G   0% /dev/shm

System.ymlКонфигурация:

# Module: system
# Docs: https://www.elastic.co/guide/en/beats/metricbeat/6.5/metricbeat-module-system.html

- module: system
  period: 10s
  metricsets:
    - cpu
    #- load
    - memory
    #- network
    #- process
    #- process_summary
    #- core
    #- diskio
    #- socket
  process.include_top_n:
    by_cpu: 5      # include top 5 processes by CPU
    by_memory: 5   # include top 5 processes by memory

- module: system
  period: 1m
  metricsets:
    - filesystem
    - fsstat
  processors:
  - drop_event.when.regexp:
      system.filesystem.mount_point: '^/(sys|cgroup|proc|dev|etc|devtmpfs|tmpfs|host|lib)($|/)'

- module: system
  period: 15m
  metricsets:
    - uptime

#- module: system
#  period: 5m
#  metricsets:
#    - raid
#  raid.mount_point: '/'

И я получаю в кибане это: enter image description here

Кто-нибудь есть какие-либо идеи, как получить эти диски, используя metricbeat для logstashкибане?

Заранее спасибо за предложения.

1 Ответ

0 голосов
/ 28 января 2019

По умолчанию metricbeat поставляется с предварительно настроенным правилом исключения в блоке processors.Посмотрите на эти строки:

processors:
  - drop_event.when.regexp:
      system.filesystem.mount_point: '^/(sys|cgroup|proc|dev|etc|devtmpfs|tmpfs|host|lib)($|/)'

По сути, это означает, что все события, которые соответствуют регулярному выражению '^/(sys|cgroup|proc|dev|etc|devtmpfs|tmpfs|host|lib)($|/)', будут отброшены, включая эти два:

devtmpfs        2.0G   56K  2.0G   1% /dev
tmpfs           2.0G     0  2.0G   0% /dev/shm
...