Как запланировать logstash для входного файла CSV - PullRequest
0 голосов
/ 28 февраля 2019

У меня есть CSV-файл, который обновляется каждый час. Мне нужно загрузить его в kibana, я хочу запланировать logstash так, чтобы он обновлялся каждый час в kibana. Я искал много форумов, но нашел информацию о планировании ввода JDBC, ноне для ввода csv.

Ответы [ 2 ]

0 голосов
/ 06 марта 2019

Пожалуйста, используйте ссылку ниже, чтобы импортировать данные из CSV в Elasticsearch через Logstash и SinceDb.

https://qbox.io/blog/import-csv-elasticsearch-logstash-sincedb

См. Ссылку ниже для получения дополнительной конфигурации подключаемого модуля фильтра CSV.

https://www.elastic.co/guide/en/logstash/current/plugins-filters-csv.html#plugins-filters-csv-columns

Надеюсь, это поможет!

0 голосов
/ 05 марта 2019

Вы должны написать свою собственную конфигурацию конвейера logstash.На основе того, как читать входные данные, где выводить данные.Кибана - это инструмент визуализации.Данные обычно попадают в ElasticSearch, а затем просматриваются на панели управления Kibana.Конфигурация конвейера считывается logstash, как только он вылетает.Пример конфигурации конвейера, который считывает данные csv из раздела kafka и передает их в ES, приведен ниже.

input {

  kafka{
    id => "test_id"
    group_id => "test-consumer-group"
    topics => ["test_metrics"]
    bootstrap_servers => "kafka:9092"
    consumer_threads => 1
    codec => line
  }
}
filter {
  csv {
     separator => ","
     columns => ["timestamp","field1", "field2"]
  }
}
output {
    elasticsearch {
        hosts => [ "elasticsearch:9200" ]
        index => "_my_metrics"
    }
}
...