12.5.2025
Prompt-Flows sind eine effektive Methode für den Praxiseinsatz künstlicher Intelligenz in modernen IT-Infrastrukturen. Sie hilft Administratoren, DevOps-Teams und Security-Analysten dabei die Herausforderung, relevante Informationen aus einer Vielzahl verteilter Systeme effizient zu erfassen, auszuwerten und handlungsorientiert zu meistern. Mit AIR MOC arbeiten wir an einer Lösung, die auf die Integration von lokalen Large Language Models (LLMs) spezialisiert ist – unter Berücksichtigung strengster Datenschutzanforderungen (DSGVO-konform, vollständig on-premise) und mit Fokus auf operative Effizienz im IT-Betrieb.
Ein zentrales Element dieser Architektur sind sogenannte Prompt-Flows – strukturierte Abläufe zur intelligenten, kontextbewussten Kommunikation mit dem LLM. Sie ermöglichen es, Daten aus verschiedenen Monitoring-, Logging- und Security-Komponenten automatisch zu aggregieren, in Prompts zu überführen und daraus fundierte Analysen, Empfehlungen oder Reports zu erzeugen.
Prompt-Flows sind definierte Abläufe zur automatisierten Erzeugung und Verarbeitung von Eingaben (Prompts) für ein Sprachmodell. Im Gegensatz zur freien Texteingabe strukturieren sie die Kommunikation zwischen Benutzer, Infrastrukturkomponenten und KI, indem sie:
Prompt-Flows wirken damit als semantische Steuerzentrale für AIR MOC. Sie verbinden die technische Infrastruktur mit der sprachlichen Ausdruckskraft des LLMs – kontrolliert, nachvollziehbar und auf Wunsch vollständig lokal.
AIR MOC ist so konzipiert, dass es als „semantischer Layer“ über bestehenden IT-Systemen agiert. Dabei kommen die folgenden drei operativen Plattformen zum Einsatz:
Über eine einheitliche MCP-Schnittstelle (Model Context Protocol) kann AIR MOC diese Systeme ansprechen, Kontexte abfragen und automatisierte Rückmeldungen generieren.
Ein klassischer Anwendungsfall ist die Analyse einer kritischen Statusmeldung im Monitoring-System. Ziel ist es, aus einer einfachen Nutzerfrage eine vollständige, maschinell erzeugte Ursachenanalyse samt Lösungsvorschlägen zu erhalten.
Beispiel Prompt-Flow: Analyse eines kritischen Host-Status
Ausgangslage: Ein Administrator stellt die Fragen: „Warum ist der Host 'web-server-48‘ kritisch?“
Verarbeitung durch AIR MOC: Der Prompt-Flow wird gestartet AIR MOC ruft folgende Daten automatisiert ab:
Automatisch erzeugter Prompt für das LLM (z.B. AIR-CHAT):
Analysiere den kritischen Zustand des Hosts 'web-server-48'.
Berücksichtige:
– Statusbericht: Host nicht erreichbar, Timeout nach 3 Pings.
– Service-Checks: ICMP, HTTP, Load.
– Logs: Netzwerkfehler, Routingprobleme auf eth2.
– SIEM: keine relevanten Events im Zeitfenster.
Formuliere eine technische Diagnose mit Handlungsempfehlungen.
Antwort des LLM:
Der Host 'web-server-48' ist seit 14 Minuten nicht erreichbar. Die letzten drei Pings schlugen fehl. In den Logdaten zeigen sich Netzwerkfehler (‚Connection timed out‘) und ein möglicher Routingverlust auf eth1. Firewall-Blockaden sind nicht ersichtlich. Vermutlich handelt es sich um ein physikalisches Netzwerkproblem oder ein falsch konfiguriertes Interface.
Empfohlene Maßnahmen des LLM:
Verbindung zum Switch prüfen. Netzwerkinterface neu starten. Monitoringwerte auf weiteren Hosts im gleichen Subnetz prüfen.
Prompt-Flows können auch in der proaktiven Analyse von Logdaten eingesetzt werden. Hier zeigt sich das Potenzial der semantischen Auswertung durch das LLM besonders deutlich – insbesondere in heterogenen Logumgebungen mit unterschiedlichen Formaten, Quellen und Zeitzonen.
Beispiel Prompt-Flow: SSH-Anomalien erkennen
Ausgangslage: Ein Security-Analyst stellt die Frage: „Gab es in den letzten zwei Stunden verdächtige SSH-Verbindungen auf 'db-node-28'?“
Verarbeitung durch AIR MOC: Der Prompt-Flow wird gestartet.
Abfrage relevanter Logquellen über LOMOC.
Analyse auf Muster: mehrfach fehlgeschlagene SSH-Logins, ungewöhnliche Uhrzeiten, neue IPs. Falls vorhanden: Event-Korrelation mit SIEMOC (z. B. gleiche IP bei mehreren Hosts).
Autoamtisch erzeugter Prompt an das LLM (z.B. AIR-CHAT):
Analysiere SSH-Loginversuche auf 'db-node-28' im Zeitraum 09:00–11:00 Uhr. Prüfe auf wiederholte Fehler, neue Benutzer und Anomalien in der Quell-IP. Erstelle eine Risikobewertung und schlage Maßnahmen vor.
Antwort des LLM:
Zwischen 09:32 und 10:04 Uhr wurden 34 fehlgeschlagene SSH-Anmeldeversuche von IP 10.0.113.45 registriert. Das Muster deutet auf einen automatisierten Brute-Force-Angriff hin. Die IP-Adresse war bislang nicht in der Umgebung aktiv. Keine erfolgreichen Logins verzeichnet.
Empfohlene Maßnahmen des LLM:
IP-Adresse temporär blockieren. Zugriffsversuche an SIEM melden. Zwei-Faktor-Authentifizierung für SSH-Zugänge überprüfen.
Die Einführung von Prompt-Flows in AIR MOC eröffnet im praktischen IT-Betrieb eine Vielzahl konkreter Mehrwerte – sowohl in technischer als auch organisatorischer Hinsicht. Insbesondere im Zusammenspiel mit bestehenden Monitoring- und Sicherheitslösungen wie COMMOC, LOMOC und SIEMOC entfalten die strukturierten KI-Interaktionen ihre volle Wirksamkeit.
Ein zentraler Vorteil liegt in der signifikanten Zeitersparnis. Aufgaben, die traditionell einen manuellen Abgleich verschiedener Systemdaten, Logauswertungen und Experteneinschätzungen erfordern, lassen sich durch Prompt-Flows automatisiert und in Sekundenschnelle durchführen. Dies betrifft etwa die Ursachenanalyse bei kritischen Host-Statusmeldungen, die Erkennung von Angriffsmustern in Logs oder die Bewertung korrelierter SIEM-Events. Administratoren und Analysten erhalten damit in kürzester Zeit eine fundierte Entscheidungsgrundlage – ohne langwierige Recherchen oder Skripting.
Hinzu kommt eine spürbare Reduktion von Fehlerquellen. Durch die Standardisierung von Analyse- und Auswertungsprozessen in Form wiederverwendbarer Prompt-Flows wird vermieden, dass wichtige Kontextinformationen übersehen oder unvollständig berücksichtigt werden. Die strukturierte Aufbereitung durch das LLM führt zu konsistenten Ergebnissen, die sowohl technisch nachvollziehbar als auch sprachlich klar verständlich sind. Dies erleichtert nicht nur die interne Kommunikation, sondern auch die Weitergabe an angrenzende Abteilungen wie Helpdesk, Change Management oder IT-Security.
Ein weiterer entscheidender Aspekt ist die Erhöhung der Transparenz im Umgang mit automatisierten Auswertungen. Jeder durch AIR MOC initiierte Prompt-Flow ist dokumentiert und versioniert. Dadurch lässt sich zu jedem Zeitpunkt nachvollziehen, auf welcher Basis eine Analyse erstellt wurde – inklusive der verwendeten Datenquellen, Zeiträume und Analysemethoden. Dies ist insbesondere für regulierte Branchen und sicherheitskritische Infrastrukturen von hoher Relevanz, da Prüfpfade und Nachvollziehbarkeit eine Grundvoraussetzung für Compliance sind.
Die Architektur von AIR MOC ermöglicht darüber hinaus eine hohe Skalierbarkeit und Anpassbarkeit. Neue Anwendungsfälle können schnell durch zusätzliche Prompt-Flows modelliert werden – sei es für neue Systemtypen, spezielle Analysekategorien oder rollenbasierte Nutzung. Der modulare Aufbau erlaubt es, einzelne Flows unabhängig voneinander zu entwickeln, zu testen und bei Bedarf zentral auszurollen. Dies unterstützt nicht nur DevOps-Strategien, sondern auch kontinuierliche Optimierung im laufenden Betrieb.
Nicht zuletzt erfüllt AIR MOC höchste Anforderungen an Datenschutz und IT-Sicherheit. Im Gegensatz zu cloudbasierten KI-Diensten erfolgt die gesamte Verarbeitung vollständig lokal in der eigenen Infrastruktur. Es werden weder Daten nach außen übertragen noch externe LLM-Plattformen genutzt. Dadurch behalten Organisationen jederzeit die volle Kontrolle über alle verwendeten Informationen – ein entscheidender Vorteil in datenschutzsensiblen Bereichen wie Behörden, Finanzwesen, Gesundheitswesen oder kritischen Infrastrukturen.
In Summe tragen Prompt-Flows in AIR MOC dazu bei, IT-Betrieb nicht nur effizienter, sondern auch intelligenter zu gestalten. Sie ermöglichen eine neue Qualität der Mensch-Maschine-Interaktion, in der Informationen nicht nur aggregiert, sondern kontextualisiert und operationalisiert werden – automatisiert, nachvollziehbar und sicher.
AIR MOC ist darauf ausgelegt, sich kontinuierlich weiterzuentwickeln. In zukünftigen Versionen werden Prompt-Flows nicht nur statisch definiert, sondern dynamisch generiert – etwa durch Nutzerverhalten, Risikoeinschätzung oder vergangene Interaktionen. Auch die Kombination mit AIOps-Methoden (Anomalieerkennung, Event-Korrelation, Root Cause Analysis) steht auf der Roadmap.
Zudem wird AIR MOC künftig sogenannte „Prompt-Templates“ bereitstellen, die rollenbasiert anpassbar sind – z. B. für Admins, SOC-Teams, Helpdesk oder Managementberichte.
Prompt-Flows in AIR MOC bieten einen neuartigen Zugang zur Automatisierung und semantischen Analyse technischer Betriebsdaten. Durch die enge Verzahnung mit COMMOC, LOMOC und SIEMOC wird aus verstreuter Information ein handlungsfähiger Wissensraum – unterstützt durch die Sprachkompetenz eines lokal betriebenen LLMs. Unternehmen erhalten damit ein leistungsfähiges Werkzeug, das den IT-Betrieb intelligenter, schneller und sicherer macht – ohne Kompromisse bei Datenschutz oder Kontrollierbarkeit.