12.5.2025
Stellen Sie sich vor, Sie könnten ein Monitoring-System einfach per Sprache steuern – ganz ohne komplexe Abfragen, CLI-Kommandos oder Tool-Hopping. Genau das ermöglicht ein neu entwickelter, modularer AI Monitoring Assistant auf Basis eines MCP-Servers.
In modernen IT-Infrastrukturen ist die effektive Überwachung komplexer Systeme essenziell, um Ausfallzeiten zu minimieren, Sicherheitsrisiken frühzeitig zu erkennen und Betriebsprozesse zu optimieren. Die Integration von Künstlicher Intelligenz (KI) in das Monitoring verspricht dabei nicht nur eine tiefere Einsicht in Betriebszustände, sondern auch die Möglichkeit, wiederkehrende Anfragen automatisiert zu bearbeiten oder komplexe Zusammenhänge zu erkennen. Der hier vorgestellte Ansatz setzt auf einen modellagnostischen AI Monitoring Assistant, der mithilfe eines eigens entwickelten Model Context Protocol (MCP)-Servers eine flexible und erweiterbare Architektur für KI-gestütztes Monitoring bietet – mit einem initialen Fokus auf OpenSearch und Perspektiven für die Anbindung weiterer Systeme wie SSH, Grafana, Icinga oder ElasticSearch.
Der Model Context Protocol (MCP)-Server ist eine smarte Vermittlungsinstanz zwischen Sprachmodellen und Monitoring-Systemen wie OpenSearch, SSH, Grafana oder Icinga.
Sie geben ein, was Sie wissen wollen – etwa: „Zeig mir alle Indizes, die gestern geändert wurden“ – und der Server übersetzt das in passende API- oder Shell-Kommandos. Ergebnis: Sie bekommen direkt die relevanten Daten – ganz ohne manuelles Tippen von Abfragen. Der Clou: Das Ganze ist modellagnostisch. Ob OpenAI, Mistral, Llama oder ein lokales LLM (z.B. AIR) – der MCP-Server funktioniert mit allen. So bleibt Ihre Monitoring-Architektur flexibel, sicher und zukunftsfähig.
Der MCP-Server nutzt ein Set an Tools, die wie Bausteine definieren, was das System ausführen darf. Für OpenSearch sind das beispielsweise REST-Requests wie usw.
_search, _cat/indices, _cluster/health
Das Sprachmodell wählt basierend auf Ihrer Eingabe das passende Tool aus, der Server führt es aus – und liefert die Antwort zurück ans Modell. Das Ergebnis: echte KI-gestützte Monitoring-Dialoge, mit validierten Operationen und kontrollierter Ausführung.
Klassisches IT-Monitoring basiert auf dedizierten Tools, vordefinierten Regeln und oft auch auf einer Vielzahl heterogener Datenquellen – von Systemmetriken über Logs bis hin zu externen APIs. Mit der zunehmenden Verbreitung von Machine Learning und generativer KI ergeben sich neue Möglichkeiten, diese Daten nicht nur zu sammeln, sondern auch intelligent zu verarbeiten. Sprachmodelle können etwa genutzt werden, um Anfragen in natürliche Sprache zu interpretieren und automatisiert die passenden Abfragen an technische Systeme zu übermitteln. Genau hier setzt der MCP-Server an.
Das zentrale Element der Lösung ist ein sogenannter Model Context Protocol (MCP)-Server. Dieser agiert als Vermittlungsinstanz zwischen einem Sprachmodell – sei es lokal oder in der Cloud – und einem Set definierter Tools. Diese Tools können dabei beliebige technische Schnittstellen oder Befehlsmuster repräsentieren, etwa die REST API von OpenSearch oder vordefinierte Kommandos auf einem SSH-Server.
Modellagnostik als Kernprinzip
Ein zentrales Designziel des MCP-Servers war die Modellagnostik. Das bedeutet, dass der Server unabhängig vom eingesetzten Sprachmodell arbeitet. Ob ein Open-Source-Modell lokal ausgeführt oder ein cloudbasiertes LLM verwendet wird – der MCP-Server kann in beiden Szenarien genutzt werden. Diese Unabhängigkeit ermöglicht es, die Lösung in unterschiedlichen Datenschutz- und Sicherheitskontexten einzusetzen, etwa auch in abgeschotteten Unternehmensnetzwerken oder hochsensiblen Bereichen mit hohen Compliance-Anforderungen.
Funktionsweise im Detail
Der MCP-Server wird mit einem Set an Tools konfiguriert, die als ausführbare Operationen dienen. Im Fall von OpenSearch handelt es sich beispielsweise um eine Sammlung zulässiger REST-Requests wie und weitere.
GET _cat/indices, POST _search, GET _cluster/health
Ein an das Sprachmodell gerichteter Prompt – etwa: "Zeig mir alle Indizes, die in den letzten 24 Stunden verändert wurden" – wird durch das Sprachmodell in einen konkreten Tool-Call übersetzt, den der MCP-Server ausführt. Das Ergebnis wird anschließend aufbereitet und zurück an das Modell übergeben, um ggf. eine sprachlich interpretierte Antwort zu generieren. Der Server bildet damit die Brücke zwischen natürlicher Sprache und technischen Monitoring-Operationen. Für die Integration von MCP-Server mit einem Sprachmodell braucht es einen MCP-Client (z.B. der freie Client 5ire). Praktisch die Benutzerschnittstelle zur Entgegennahme Ihrer natürlichsprachlichen Fragen und Befehle. Über den MCP-Server, die Augen und Ohren der AIOps-Lösung, werden dann Fakten gesammelt und Aktionen durchgeführt.
Die erste Implementierung des MCP-Servers fokussiert sich auf die Integration mit OpenSearch, einer freien und performanten Such- und Analyseplattform für strukturierte und unstrukturierte Daten. Der Zugriff erfolgt über die REST-basierte OpenSearch API, die durch das Toolset des MCP-Servers abgebildet wird. Dieselbe API die auch in unserem auf OpenSearch basierten Protokollmonitoring LOMOC verwendbar ist. Durch diese Integration lassen sich mit einfachen Spracheingaben komplexe Suchabfragen oder Metrik-Auswertungen in OpenSearch ausführen. Beispiele sind:
Dieser Ansatz ermöglicht auch weniger technisch versierten Nutzern, tiefere Einblicke in das Monitoring-Backend zu erhalten – ohne fundierte Kenntnisse in Query-DSL oder API-Nutzung.
Ein entscheidender Vorteil des MCP-Servers ist seine Modularität. Die Abstraktion über Tools erlaubt es, beliebige weitere Systeme einzubinden. Im nächsten Entwicklungsschritt wurden daher auch einfache SSH-Kommandos als Toolset eingebunden. Dabei wird besonders auf Sicherheit geachtet: Nur sogenannte "safe commands" wie htop, free -m, ps aux oder df -h sind zugelassen.
Diese Integration eröffnet neue Möglichkeiten:
Ebenso denkbar ist die Anbindung an Visualisierungssysteme wie Grafana oder Monitoringlösungen wie Icinga2 bzw. COMMOC. Auch hier erfolgt die Kommunikation über definierte API-Calls oder sichere Kommandos, die vom Sprachmodell via MCP ausgeführt werden können. Bald stellen wir Ihnen hier die entsprechende Lösung vor.
Die Nutzung generativer KI in produktiven Monitoringprozessen erfordert strenge Sicherheits- und Governance-Mechanismen. Um das Ausführen gefährlicher oder potenziell schädlicher Kommandos zu vermeiden, implementiert der MCP-Server eine Whitelisting-Logik, die nur explizit zugelassene Tools ausführen lässt. Jegliche Versuche, nicht autorisierte Aktionen zu initiieren, werden erkannt und unterbunden.
Darüber hinaus lässt sich das System in abgeschotteten Netzwerken betreiben, etwa durch die Kombination mit lokal laufenden Sprachmodellen und restriktiv konfigurierten Toolsets. Dies ermöglicht auch den Betrieb in Umgebungen mit hohen Anforderungen an Datenschutz, Compliance und Betriebsstabilität.
Die praktische Nutzbarkeit des AI Monitoring Assistants zeigt sich in einer Vielzahl von Anwendungsszenarien. Nachfolgend einige exemplarische Use Cases:
Wie unser AI Monitoring Assistant einen LOMOC-Cluster reparierte
Die Ausgangsfrage war, warum einer unserer LOMOC-Cluster einen gelben Health-Status anzeigt. Bevor wir in die Details der Problemlösung eingestiegen sind habe wir den AI Assistenten die Architektur des Cluster ergründen lassen:
„please list the nodes in my cluster“
Im nächsten Schritt wollten wir vom AI Assistenten wissen welche Daten in diesem Cluster gespeichert und indiziert sind:
„what indices does it have“
Unser AI Assistant hat bei der Beantwortung dieser Frage schon selbstständig herausgefunden, dass der Cluster sich im Status „Gelb“ befindet.
Wir fragen nochmals detaillierter nach dem Status des Clusters.
„can you check the health of lomoc-cluster"
Das finden wir interessant – und beginnen unserem „5-why“ Ansatz für Root-Cause-Analysen mit folgender Warum-Frage:
„why are there unassigned shards”
Wir verzichten auf weitere Warum-Fragen und kommen geradeaus zum Punkt – wir wollen das Problem gelöst haben:
„what requests should I send to fix this?”
Unser AI-Assistent schließt automatisch aus unserer Frage, dass wir den Cluster reparieren wollen und bietet von sich aus an ab jetzt den Cluster-Status auf die Lösung des Problems hin zu überprüfen.
Wir gehen auf seine Frage nur indirekt ein – setzen aber seinen Vorschlag um:
„i have done this now, is the health better?”
Der AI Monitoring Assistent erkennt eine Verbesserung – die Maßnahme scheint zu wirken.
Der Assistent weiß, dass die Lösung etwas länger dauern kann und bietet an, die Abarbeitung zu überwachen.
Wir fragen nach einiger Zeit nach:
„can you check again?"
Der Assistant stellt den Fortschritt fest und schliesst aus der Veränderung der zugrundeliegenden Metriken wie ein menschlicher Administrator auf die Korrektheit des laufenden Reperaturprozesses.
Nach einiger Zeit stellen wir voller Erwartung die finale Frage:
„can you check the health now?"
Der AI Monitoring Assistant hat die die korrekte Funktion des Clusters erkannt und gibt uns netterweise noch eine Zusammenfassung über die Ausgangssituation und den aktuellen Zustand:
nur 56.7% aktive Shards – jetzt 100%. So einfach.
Das hier vorgestellte System legt die Grundlage für eine neue Klasse von intelligenten Monitoring-Assistenten, die durch ihre Modularität, Modellagnostik und Sicherheit überzeugen. Perspektivisch ergeben sich eine Vielzahl von Erweiterungsmöglichkeiten:
Auch die Kombination mit Event-Korrelation und AIOps-Plattformen wie AIR eröffnet neue Horizonte für autonome Betriebsprozesse und vorausschauende Fehlervermeidung.
Der Betrieb von MCP-Clients und MCP-Servern eröffnet neue Angriffsflächen innerhalb moderner IT-Infrastrukturen. Da diese Komponenten als Vermittler zwischen Sprachmodellen und produktiven Systemen fungieren, besteht bei Fehlkonfiguration, mangelnder Zugriffskontrolle oder unzureichender Protokollierung ein erhebliches Cyberrisiko. Ein kompromittierter MCP-Client könnte manipulierte Eingaben an ein Sprachmodell übermitteln oder nicht autorisierte Aktionen über den Server auslösen. Ebenso kann ein unsicherer MCP-Server als Einfallstor dienen, um interne APIs oder Kommandozeilenwerkzeuge mit schadhaften Abfragen zu missbrauchen.
Besonders kritisch ist, wenn diese Komponenten über Cloudlösungen oder APIs betrieben werden, deren Infrastruktur außerhalb Europas liegt. Damit steigt das Risiko durch Drittstaatenzugriffe, unzureichende Verschlüsselung oder staatliche Überwachung. In sicherheitskritischen Bereichen wie KRITIS, Behörden oder Finanzwesen sind solche Szenarien nicht tragbar.
Die Nutzung europäischer MCP-Clients und MCP-Server – entwickelt, betrieben und gehostet innerhalb der EU – bietet daher eine deutlich bessere Sicherheitsgrundlage. Sie unterliegen der europäischen Gesetzgebung, ermöglichen eine nachvollziehbare Sicherheitsarchitektur und vermeiden Abhängigkeiten von extraterritorialen Dienstleistern. Für europäische Infrastrukturen ist dies nicht nur ein strategischer Vorteil, sondern eine zwingende Voraussetzung für eine widerstandsfähige, vertrauenswürdige KI-Integration.
Mit dem in Entwicklung befindlichen MCP-Server entsteht eine robuste, sichere und erweiterbare Infrastruktur für die Integration von Sprachmodellen in das technische Monitoring. Die Fähigkeit, Systemanfragen in natürlicher Sprache zu stellen und in konkretes Monitoring-Handeln zu überführen, markiert einen entscheidenden Fortschritt in der Mensch-Maschine-Interaktion. Durch die Offenheit für verschiedenste Tools – von OpenSearch über SSH bis zu Grafana, LOMOC, COMMOC, SIEMOC – sowie die Modellagnostik bietet das System eine ideale Grundlage für skalierbare, KI-gestützte Monitoring-Architekturen der nächsten Generation.
Dann reden Sie mit unseren Experten. Ob Proof of Concept, Integration in bestehende Systeme oder Erweiterung auf Ihre Infrastruktur – wir zeigen Ihnen, wie Sie mit einem MCP-Server den nächsten Monitoring-Level erreichen und mit COMMOC, LOMOC und SIEMOC die perfekte Basis für Ihre AIOps Strategie bilden können.