Monitoring-Events

Details über service.monitor Monitoring ausgeführte Monitoring-Executions können in der lokalen Datenbank gespeichert werden. Alternativ können sie auch direkt per GELF-Protokoll an die Logstash-Pipeline von Analytics geschickt werden.

Ablauf

  1. Ausführen der Statements aus dev-console/ct-monitoring.txt in der Kibana Dev Konsole

  2. Import von Kibana Dashboards, Queries und Index Patterns aus Datei kibana/ct-monitoring/export.ndjson

  3. Einrichtung der Ingest-Pipelines aus ingest/ct-monitor-monitoring-*.txt (siehe unten)

  4. Konfiguration der /monitor-Webapplikation

Elastic Ingest Pipeline publizieren

Die Ingest-Pipelines lesen den Ziel-Host und ArcGIS Server spezifische Angaben aus der angefragten Monitoring-URL aus, um komfortable Filter-Möglichkeiten anzubieten. Weiterhin werden einige Zeit-/Datumsangaben extrahiert. Die Inhalte von

  • ingest/ct-monitor-temporal.txt

  • ingest/ct-monitor-monitoring-arcgis-serviceinfo.txt

  • ingest/ct-monitor-monitoring-host.txt

  • ingest/ct-monitor-monitoring.txt

über die Kibana Dev Tools > Console senden.

Konfiguration der /monitor-Webapplikation

Ergänzen Sie folgende Änderungen an der application.properties-Datei von service.monitor Monitoring:

#### Storing monitored events in elasticsearch via a logstash pipeline ####
# This is very useful if you want to leverage kibana widgets and dashboards
event.storage.elastic.enabled=true
event.storage.elastic.logstash.host=localhost
event.storage.elastic.logstash.port=12203

Die oben stehende Konfiguration geht davon aus, dass der Logstash-Prozess auf der gleichen Maschine, wie der Tomcat betrieben wird.