Übersicht & Smoke Test

Diese Übersicht soll helfen, die Zusammenhänge von Datenquellen und notwendigen Installationsschritten besser zu verstehen und Hinweise geben, wie der erfolgreiche Datenfluss überprüft werden kann.

Übersicht

Idealtypische Reihenfolge der Einrichtung von Datenquellen

  1. Konfiguration von Elastic Index(-template), Lifecycle Policy und Alias

  2. Import von Kibana Dashboards, Queries und Index Patterns

  3. Konfiguration der Logstash-Pipelines

  4. weitere Aktivitäten außerhalb von Elasticsearch

Zuordnung von Dateien der Auslieferung zu Datenquellen

Datenquellen & Dateien
Datenquelle dev-console kibana logstash weiteres

ct-analytics

ct-analytics.txt

ct-analytics/export.ndjson

ct-analytics

map.apps Bundle-Upload, Installation monitor-analytics-webapp

ct-arcgis

ct-arcgis-logfile.txt

ct-arcgis/export.ndjson

ct-arcgis-logfile

Filebeat-Einrichtung auf ArcGIS Hosts

ct-fme

ct-fme-*.txt

ct-fme/export.ndjson

ct-fme-*

FME-Umgebungsparameter für Logstash setzen

ct-log

ct-log.txt

ct-log/export.ndjson

ct-log

Log4J Logging über GELF in den Anwendungen aktivieren

ct-monitoring

ct-monitoring.txt

ct-monitoring/export.ndjson

ct-monitoring

Transfer der Monitoring-Ereignisse in monitor-webapp aktivieren

Smoke Test

  1. Prüfung des Logfiles des Logstash-Prozesses

    • Gibt es Fehlermeldungen in Bezug auf die Verbindung zu Elasticsearch?

    • Sind alle definierten Logstash-Pipelines gestartet? (z.B.: Pipeline started successfully {:pipeline_id⇒"ct-monitoring)

  2. Prüfung der Ansicht in Kibana

    • Liegen in der Discover-Ansicht für die gewünschte Datenquelle bereits Daten vor? (Hinweis: eingestellte Zeitspanne der Abfrage beachten)

    • Zeigen die Dashboards bereits Daten an?