Dino Legacy Lessons von Uwe Graf

AI auf dem Mainframe: Warum Log-Analyse allein nicht die Zukunft ist

In einer aktuellen Veröffentlichung wird argumentiert, dass die größte Chance für AI im Mainframe-Umfeld nicht im Code liege, sondern in der Interpretation von System- und Betriebsdaten. Die These lautet: Wenn AI Telemetriedaten analysiert, können Engineers schneller verstehen, was im System passiert. Der Artikel auf Planet Mainframe beschreibt diese Perspektive ausführlich. Diese Sichtweise ist interessant. Sie greift jedoch zu kurz. Mehrere zentrale Annahmen sind technisch und organisatorisch fragwürdig.

Die falsche Gegenüberstellung von Code und Operations

Die Diskussion stellt zwei Optionen gegenüber: AI für Codegenerierung und Modernisierung oder AI für Systemdatenanalyse. Daraus entsteht die Behauptung, die zweite Option sei die größere Chance.

Diese Gegenüberstellung ist künstlich.

In realen Mainframe-Systemen sind Code und Betrieb untrennbar miteinander verbunden. Performanceprobleme entstehen häufig durch Programmlogik. Workload-Verhalten entsteht aus Implementierungsentscheidungen. Datenzugriffsmuster werden durch den Code bestimmt. Eine Analyse, die nur Telemetriedaten betrachtet, erkennt Symptome. Ohne Codeverständnis erkennt sie keine Ursachen.

Der realistische Ansatz lautet deshalb: AI-Observability und AI-Codeverständnis müssen zusammenwirken.

Die diagnostischen Fähigkeiten von AI werden überschätzt

Der Artikel suggeriert, Künstliche Intelligenz könne Systemdaten interpretieren und direkte Antworten liefern. Die Realität ist komplexer.

Mainframe-Telemetry besteht aus zahlreichen Datenquellen. Dazu gehören SMF-Records, CICS-Task-Metriken, Db2-Locking-Informationen und WLM-Policies. Systemverhalten entsteht aus Wechselwirkungen zwischen CPU, Storage, I/O, Parallelität, Workload-Management und Applikationslogik.

Große Sprachmodelle können Logs zusammenfassen, Muster erkennen und Hypothesen formulieren. Eine kausale Root-Cause-Analyse ist eine andere Kategorie von Problemstellung. Erfahrung und Systemverständnis bleiben entscheidend.

Observability ist kein ungelöstes Problem

Der Artikel vermittelt den Eindruck, dass Logs heute überwiegend manuell analysiert werden. Diese Darstellung ist unvollständig.

Mainframe-Umgebungen verfügen seit Jahren über ausgereifte Werkzeuge. Beispiele sind OMEGAMON, RMF, SMF-Analytics, Dynatrace, Splunk und Elastic Observability. Diese Plattformen liefern Korrelationen, Dashboards, Alerts und Baselines.

AI kann diese Werkzeuge verbessern. AI ersetzt sie nicht.

Chat-Interfaces ersetzen keine Diagnosemethodik

Die Vision lautet häufig: Ein Engineer fragt „Why is CICS slow?“ und erhält eine Diagnose. So funktioniert Incident-Analyse nicht.

Erfahrene Engineers folgen strukturierten Diagnosepfaden. Sie prüfen CPU-Auslastung der LPAR. Sie analysieren WLM-Verzögerungen. Sie untersuchen Db2-Locks. Sie kontrollieren CICS-Dispatching. Sie prüfen VSAM-I/O.

Diese Schritte bilden eine methodische Analyse. Natural-Language-Interfaces helfen bei Dokumentation, Onboarding und Log-Exploration. Sie ersetzen keine systematische Diagnose.

Fehlende Evidenz und möglicher Vendor-Bias

Der Artikel beschreibt eine Vision. Er liefert qualitative Aussagen. Quantitative Belege fehlen. Es fehlen Benchmarks. Es fehlen Vergleiche mit bestehenden Observability-Tools. Es fehlen dokumentierte Produktionsfälle. Ein weiterer Aspekt ist der Kontext. Der Autor ist CEO eines AI-Startups. Ein wirtschaftliches Interesse ist naheliegend.

Das eigentliche Wissensproblem im Mainframe

Die größte Herausforderung im Mainframe-Umfeld ist nicht die Interpretation einzelner Metriken. Die Herausforderung ist Systemwissen.

Viele Anwendungen sind über Jahrzehnte gewachsen. Architekturentscheidungen stammen aus unterschiedlichen technologischen Epochen. Ein großer Teil des Wissens existiert nur in den Köpfen erfahrener Engineers. Dieses Wissen steht nicht vollständig in Logs. Es steht nicht vollständig in Metriken.

Künstliche Intelligenz kann vorhandenes Wissen strukturieren. Sie kann fehlendes Wissen nicht erzeugen.

Die unterschätzte Schwierigkeit der Datenintegration

Die Vision beschreibt eine einfache Integration von Daten aus SMF, Logs, Metriken und Subsystemen. Die Realität ist komplex.

Mainframe-Daten besitzen unterschiedliche Formate. Sie entstehen in großen Volumina. Sie unterliegen strengen Sicherheitsregeln. RACF-Policies begrenzen den Zugriff. Produktionssysteme erlauben keinen uneingeschränkten Datenzugang.

In vielen Projekten entsteht der größte Aufwand bei der Integration und Aufbereitung der Daten.

Risiken automatisierter Interpretation

AI-Interpretationen können Fehler enthalten. Sprachmodelle können Halluzinationen erzeugen. Falsche Korrelationen sind möglich.

Im Mainframe-Umfeld betreffen Systeme oft Banken, Versicherungen und Zahlungsverkehr. Fehlinterpretationen können betriebliche Risiken erzeugen. AI muss daher als Unterstützungssystem verstanden werden. AI ist kein autonomes Diagnosewerkzeug.

Blick in die Zukunft

Künstliche Intelligenz kann die Analyse von Systemdaten verbessern. Sie kann Telemetrie zugänglicher machen. Sie kann Engineers unterstützen.

Die Behauptung, dass der größte zukünftige Impact von AI im Mainframe allein in der Interpretation von Logs liegt, ist nicht überzeugend. Der entscheidende Fortschritt entsteht durch eine Kombination aus Codeverständnis, Systemobservability und architektonischem Wissen.

Oder anders formuliert: Die Zukunft von AI auf dem Mainframe liegt nicht nur im Lesen von Logs. Sie liegt im Verständnis des gesamten Systems.

 

Über den Autor: Uwe Graf ist Head of Consulting bei der EasiRun Europa GmbH und gilt auf LinkedIn als eine der profiliertesten Stimmen in Sachen Mainframe-Modernisierung. Seine Beiträge sind fachlich präzise, pointiert – und unverkennbar durch den kleinen Dino, der als Symbol für den Brückenschlag zwischen Tradition und Innovation steht. Für sein Engagement in der Mainframe-Community wurde er 2025 sowohl als IBM Champion als auch als „Influential Mainframer“ von planetmainframe.com ausgezeichnet