von Bernd Greifeneder, CTO und Gründer, Dynatrace
Agentic AI führt zu mehr Systemkomplexität
Agentic AI ist leistungsfähiger und zugleich deutlich schwieriger zu beherrschen. Wenn KI-Agenten Aufgaben koordinieren, Kontext austauschen und weitere Aktionen auslösen, kann selbst eine gut strukturierte digitale Umgebung in unvorhersehbares Verhalten kippen. Die meisten Unternehmen sind auf diesen Wandel (noch) nicht vorbereitet. Ohne starke Observability und klare Governance werden solche Systeme zunehmend schwerer verständlich und kontrollierbar.
Jeder KI-Agent agiert eigenständig anhand von Anweisungen und Eingaben – nicht nur von Menschen, sondern auch von zahlreichen First- und Third-Party-Agenten. Ein einzelner Kundenkontakt kann Hunderte Hintergrundprozesse anstoßen, bei denen KI-Agenten selbstständig Entscheidungen treffen, Rollen wechseln und andere Agenten anleiten.
Typische Szenarien machen das deutlich: Erkennt ein Fahrzeug ein Problem, prüfen spezialisierte Agenten Kundeninformationen, bewerten Servicemöglichkeiten, schätzen Zeitaufwände und koordinieren die Lösung. Ein Reise-Assistent arbeitet ähnlich, indem er Flüge vergleicht, Vorteile aus Loyalitätsprogrammen berücksichtigt, Transportmittel bucht und Pläne in Echtzeit anpasst. Viele Agenten arbeiten im Hintergrund auf ein gemeinsames Ergebnis hin, und die Interaktionen zwischen ihnen vervielfältigen sich dynamisch. Jeder Agent ist einem Menschen oder einem übergeordneten Agenten rechenschaftspflichtig, und die Aufsicht bleibt immer beim Menschen. Diese explosionsartige Zunahme agentischer Kommunikation ist ohne Observability nicht mehr beherrschbar.
Unternehmen, die Agentic AI ohne einheitlichen Kontext und klare Rahmenbedingungen einsetzen, werden steigende Kosten, unvorhersehbares Verhalten und höhere Risiken erleben. Die Herausforderung liegt nicht mehr in der Optimierung einzelner Modelle. Entscheidend ist, das Geflecht autonomer Interaktionen in Echtzeit zu steuern. Observability wird damit zur Grundlage sicherer, skalierbarer und beherrschbarer agentischer Ökosysteme.
Autonomie beginnt mit nachweislicher operativer Reife
Unternehmen werden zunehmend größere Schritte hin zu autonomen Betriebsmodellen machen (müssen). Nicht die Ambition entscheidet, sondern der Reifegrad. KI kann erst dann eigenständig handeln, wenn Systeme, Automatisierung und Prozesse stabil, transparent und gut verstanden sind. Agentische Systeme werden kommen, doch zunächst müssen die Grundlagen stimmen. Frühere Automatisierungsstufen sind unverzichtbar, weil sie Lücken bei Datenzugriff, Service-Performance und Kontextsignalen sichtbar machen – alles Faktoren, von denen KI abhängig ist. Erst wenn diese Bausteine zuverlässig und in Echtzeit verfügbar sind, können überwachter und autonomer Betrieb funktionieren.
Die meisten Unternehmen folgen einem Entwicklungsweg: zunächst präventive Abläufe, bei denen KI Probleme erkennt und behebt, bevor sie Auswirkungen haben. Dann geführte Automatisierung, bei der KI Maßnahmen vorschlägt und Menschen jeden Schritt überwachen. Erst wenn sich verlässliche, prüfbare Ergebnisse etablieren, entsteht echte Autonomie, bei der KI innerhalb klarer Grenzen handelt und nur eskaliert, wenn nötig.
Der Übergang zu vollständig autonomen Abläufen wird schrittweise erfolgen. Unternehmen, die früh in präventive Workflows und empfehlungsbasierte Automatisierung investieren, schaffen die Basis, um autonome Fähigkeiten sicher und verantwortungsvoll einzuführen.
Resilienz wird zum neuen Maßstab operativer Exzellenz
Resilienz wird sich als entscheidende Kennzahl digitaler Leistungsfähigkeit durchsetzen. Da Systeme immer verteilter und vernetzter arbeiten, können kleine Störungen rasch über Anwendungen, Cloud-Regionen, Zahlungssysteme und externe Dienste hinweg eskalieren. Führungskräfte werden Zuverlässigkeit, Verfügbarkeit, Sicherheit und Observability nicht länger als getrennte Disziplinen betrachten, sondern als ein gemeinsames Ziel: die Fähigkeit eines Systems, Störungen zu absorbieren, schnell zu reagieren und eine konsistente Nutzererfahrung unter Belastung zu gewährleisten.
Eine von Dynatrace in Auftrag gegebene Studie mit FreedomPay zeigt, wie fragil digitale Ökosysteme geworden sind und wie schnell technische Ausfälle zu Kundenfrustration und finanziellen Verlusten führen. Im Vereinigten Königreich sind schätzungsweise 1,6 Milliarden Pfund Umsatz jährlich durch Zahlungsausfälle gefährdet, in Frankreich rund 1,9 Milliarden Euro. Eine einzige Störung kann sich über vernetzte Systeme und Kanäle ausbreiten und verdeutlicht, wie eng moderne Abläufe gekoppelt sind.
Kunden spüren diese Ausfälle sofort. Die Geduld sinkt innerhalb weniger Minuten, und viele brechen Transaktionen ab, wenn das Problem länger als fünfzehn Minuten besteht. Die durchschnittliche Dauer eines Ausfalls liegt allerdings bei mehr als einer Stunde – der Schaden ist dann längst entstanden. Fast ein Drittel aller Kunden verliert nach nur einem Vorfall Vertrauen, besonders jüngere, digital affine Zielgruppen reagieren empfindlich.
Diese Lage erfordert einen gemeinsamen Ansatz für Resilienz. Unternehmen benötigen ein einheitliches Verständnis dafür, wie Services sich verhalten, wie Fehler sich ausbreiten und wie sich die Wiederherstellung auf die Customer Journey auswirkt. Resilienz bemisst sich daran, wie Systeme unter Druck reagieren und nicht nur daran, wie sie im Normalbetrieb funktionieren.
Zuverlässigkeit wird zur Grundlage des KI-Fortschritts
Unternehmen werden verstärkt daran arbeiten, die Zuverlässigkeit von KI-Systemen sicherzustellen. Die nächste Entwicklungsstufe von KI hängt ebenso stark von deterministischen, faktenbasierten Signalen ab wie von den generativen Fähigkeiten probabilistischer Modelle. Kreativität allein genügt nicht. Verlässliche KI braucht strukturierte Eingaben und Mechanismen, die Vertrauen in die Ergebnisse gewährleisten.
Agentische Systeme erhöhen die Komplexität zusätzlich. Wenn Agenten Aufgaben koordinieren, Kontext austauschen und nachgelagerte Aktionen auslösen, kann schon ein kleines Missverständnis das gesamte System beeinflussen. Je leistungsfähiger ein Agent ist, desto stärker wirkt dieser Effekt – Fortschritt und Fehler beschleunigen sich gleichermaßen. So entstehen Halluzinationen auf Systemebene: nicht durch ein einzelnes Modell, sondern durch sich verstärkende Ungenauigkeiten über viele Interaktionen hinweg. Deterministische Grundlagen und End-to-End-Observability verhindern das, indem sie sicherstellen, dass alle Agenten auf denselben Fakten agieren und der menschlichen Aufsicht verpflichtet bleiben.
Ein Beispiel zeigt das anschaulich: Erkennt ein Fahrzeug ein Problem, aktivieren sich Agenten, die Kundendaten prüfen, Fahrzeugstatus analysieren, Serviceangebote ermitteln, Zeitpläne bewerten und einen vollständigen Lösungsprozess planen. Viele Agenten arbeiten zusammen, um ein einziges Ergebnis zu erzielen. Unternehmen, die transparente und verlässliche KI-Ergebnisse anstreben, setzen deshalb auf klare Regeln und deterministische Leitplanken, damit agentische Systeme sicher, nachvollziehbar und vorhersehbar agieren.
Mensch und Maschine gemeinsam als Wachstumstreiber
Im kommenden Jahr wird Agentic AI ein neues Betriebsmodell prägen, in dem Menschen Ziele vorgeben und KI präzise definierte Ausführung übernimmt. Mit wachsender Kontextfähigkeit und Koordinationsstärke verschiebt sich die menschliche Rolle: weg vom eigenen Handeln, hin zu Zielsetzung, Anleitung und Überwachung. KI analysiert Beziehungen, identifiziert Risiken und initiiert sichere Schritte. Menschen behalten Verantwortung, treffen Abwägungen und entscheiden in Situationen mit unklarer Intention oder mehrdeutigen Ergebnissen.
Agentische KI wird sich ähnlich verhalten wie ein lernfähiger Praktikant mit hohem Tempo. Mit klaren Zielen, guten Werkzeugen und den richtigen Informationen liefert sie Ergebnisse, die menschliche Teams nicht in der gleichen Geschwindigkeit erreichen könnten, und braucht dennoch Führung. Menschen definieren den Zweck, interpretieren Konsequenzen und bleiben haftbar, wenn etwas schiefgeht.
Dieses Modell hilft Unternehmen und ihren Teams, Komplexität besser zu steuern. KI übernimmt wiederkehrende oder zeitkritische Aufgaben, und Menschen konzentrieren sich auf strategische Entscheidungen und das Gesamtverständnis des Systems. Wachstum entsteht dort, wo menschliche Urteilsfähigkeit und KI-basierte Ausführung transparent, verantwortet und eng an die Unternehmensziele gekoppelt zusammenwirken.
KI- und Cloud-Teams wachsen weiter zusammen
KI wird nicht länger als isolierte Disziplin betrieben, sondern zu einem normalen Bestandteil cloudnativer Softwareentwicklung. Teams integrieren KI in digitale Services genauso selbstverständlich wie Datenbanken oder andere Kernkomponenten. KI-Engineering, Cloud-Engineering, SRE und Security wachsen zu einem gemeinsamen Betriebsmodell zusammen – mit abgestimmten Pipelines, gemeinsamen SLOs und geteilter Verantwortung für den gesamten Lebenszyklus KI-gestützter Services.
Diese Entwicklung spiegelt wider, wie moderne Software funktioniert. KI-Funktionen beeinflussen Kosten, Latenz, Verhalten und Compliance, und diese Effekte betreffen stets den gesamten Stack. Sie lassen sich nicht isoliert überwachen oder steuern. Damit KI in der Produktion zuverlässig läuft, muss sie dieselben Abläufe, Leitplanken und Delivery-Pipelines durchlaufen wie die übrigen cloudnativen Systeme.
End-to-End-Observability wird unverzichtbar, denn entscheidend ist das Gesamtergebnis für den Nutzer. Die Vorgaben an Agenten, ihre Aktionen, die ausgelösten Datenbankzugriffe und die Kosten gehören zu einem einzigen Prozess. Observability muss all diese Signale gemeinsam abbilden und KI-Komponenten, Anwendungslogik und Infrastruktur als zusammenhängendes System verstehen. So entsteht eine einheitliche Sicht, die der tatsächlichen Nutzererfahrung entspricht.
Unternehmen, die dieses Modell verfolgen, behandeln KI als reguläre Softwarekomponente. Zentrale Teams definieren Anwendungsfälle, etablieren gemeinsame Plattformen und sorgen für Compliance. Produktteams integrieren KI direkt in ihre Entwicklungs- und Auslieferungspipelines. Diese praktische Zusammenführung ermöglicht es Unternehmen, KI-basierte Dienste mit derselben Disziplin und Vorhersagbarkeit zu betreiben wie andere cloudnative Systeme.

