Monitoring-Events
Details über service.monitor Monitoring ausgeführte Monitoring-Executions können in der lokalen Datenbank gespeichert werden. Alternativ können sie auch direkt per GELF-Protokoll an die Logstash-Pipeline von Analytics geschickt werden.
Ablauf
-
Ausführen der Statements aus
dev-console/ct-monitoring.txt
in der Kibana Dev Konsole -
Import von Kibana Dashboards, Queries und Index Patterns aus Datei
kibana/ct-monitoring/export.ndjson
-
Einrichtung der Ingest-Pipelines aus
ingest/ct-monitor-monitoring-*.txt
(siehe unten) -
Konfiguration der /monitor-Webapplikation
Elastic Ingest Pipeline publizieren
Die Ingest-Pipelines lesen den Ziel-Host und ArcGIS Server spezifische Angaben aus der angefragten Monitoring-URL aus, um komfortable Filter-Möglichkeiten anzubieten. Weiterhin werden einige Zeit-/Datumsangaben extrahiert. Die Inhalte von
-
ingest/ct-monitor-temporal.txt
-
ingest/ct-monitor-monitoring-arcgis-serviceinfo.txt
-
ingest/ct-monitor-monitoring-host.txt
-
ingest/ct-monitor-monitoring.txt
über die Kibana Dev Tools
> Console
senden.
Konfiguration der /monitor-Webapplikation
Ergänzen Sie folgende Änderungen an der application.properties
-Datei von service.monitor Monitoring:
#### Storing monitored events in elasticsearch via a logstash pipeline ####
# This is very useful if you want to leverage kibana widgets and dashboards
event.storage.elastic.enabled=true
event.storage.elastic.logstash.host=localhost
event.storage.elastic.logstash.port=12203
Die oben stehende Konfiguration geht davon aus, dass der Logstash-Prozess auf der gleichen Maschine, wie der Tomcat betrieben wird.