ArcGIS Enterprise Logdaten
Ablauf
-
Ausführen der Statements aus
dev-console/ct-arcgis-logfile.txt
in der Kibana Dev Konsole -
Import von Kibana Dashboards, Queries und Index Patterns aus Datei
kibana/ct-arcgis/export.ndjson
-
Konfiguration der Logstash-Pipeline
ct-arcgis-logfile
-
Einrichtung der Ingest-Pipeline
ingest/ct-monitor-arcgis-parse-servicename.txt
(siehe unten) -
Konfiguration von Filebeat auf dem ArcGIS Enterprise Host zur regelmäßigen Abfrage der Logdateien (siehe unten)
-
Prüfen der Log-Level-Konfiguration des ArcGIS Servers (siehe unten)
Einrichtung der Elastic Ingest-Pipeline
Die Ingest-Pipeline extrahiert ArcGIS Service-Namen aus der Log-Nachricht für solche Events, bei denen das Feld ags.target
nicht bereits gefüllt ist.
Filebeat-Konfiguration - Hinweise
Für jeden ArcGIS Host, der am Sammeln der Log-Daten beteiligt sein soll, muss die Komponente Filebeat installiert werden. Aktuell wird Filebeat 7.x unterstützt, mit Filebeat 8.x konnten noch keine Probleme festgestellt werden.
Die Filebeat-Konfiguration erfolgt danach auf Basis der Vorlage filebeat/arcgis-logfile/filebeat.yml
.
filebeat.inputs:
- type: log
enabled: true
paths:
- c:\arcgisserver\logs\*\server\*.log
- c:\arcgisserver\logs\*\services\*\*.log
- c:\arcgisserver\logs\*\services\*\*\*.log
- c:\arcgisserver\logs\*\services\System\*\*.log
fields:
type: server
multiline.pattern: '^<Msg([^>]*?)>(.*)'
multiline.negate: true
multiline.match: after
output.logstash:
hosts: ["logstash.host:5604"]
fields:
env: PROD
Den Wert unter fields/type aus server , portal , datastore wählen, um bessere Filtermöglichkeiten in Kibana zu erhalten. Das gleiche gilt für fields/env , um unterschiedliche Stages unterscheiden zu können.
|