Beste medetweakers,
Ik gebruik Rsyslog om system events te forwarden naar een remote Logstash indexer die het vervolgens aanbied aan Elasticsearch. Alles lijkt te werken, maar als ik de Logstash/Kibana interface bekijk zie ik dubbele entries staan die ik zo snel niet kan verklaren.
Voorbeeld:
de Rsyslog.conf bevat de volgend entry: $RepeatedMsgReduction on
Ik gebruik de volgende Logstash indexer :
Vriend Google heeft mij helaas in de steek gelaten, kan iemand verklaren hoe dit komt en hoe ik dit kan voorkomen?
Ik gebruik Rsyslog om system events te forwarden naar een remote Logstash indexer die het vervolgens aanbied aan Elasticsearch. Alles lijkt te werken, maar als ik de Logstash/Kibana interface bekijk zie ik dubbele entries staan die ik zo snel niet kan verklaren.
Voorbeeld:
code:
1
2
3
4
| 03/26 08:30:05 Mar 26 08:30:05 postfix: connect from unknown[172.16.0.206] 03/26 08:30:05 Mar 26 08:30:05 postfix: connect from unknown[172.16.0.206] 03/26 08:30:04 Mar 26 08:30:04 postfix: disconnect from unknown[172.16.0.206] 03/26 08:30:04 Mar 26 08:30:04 postfix: disconnect from unknown[172.16.0.206] |
de Rsyslog.conf bevat de volgend entry: $RepeatedMsgReduction on
Ik gebruik de volgende Logstash indexer :
code:
Zoals je ziet heb ik extra outputs toegevoegd om te bekijken of er mogelijk dubbele entries binnenkomen, dit lijkt niet het geval te zijn aangezien zodra ik een tail open naar /var/log/incomingsys_log ik de entries maar 1 keer geschreven zie worden maar in de web interface twee keer.1
2
3
4
5
6
7
8
9
10
11
12
13
14
| input { udp { port => 55514 type => "syslog" buffer_size => 8192 format => "json_event" } } output { # stdout { debug => true debug_format => "json"} elasticsearch { host => "127.0.0.1" } # redis { host => "127.0.0.1" data_type => "list" key => "testsyslog" } file { path => "/var/log/incomingsys_log" } } |
Vriend Google heeft mij helaas in de steek gelaten, kan iemand verklaren hoe dit komt en hoe ik dit kan voorkomen?