Meta hat diese Woche “Hyperagents” präsentiert – KI-Systeme, die nicht nur Aufgaben ausführen, sondern ihren eigenen Verbesserungsprozess optimieren. Google hat einen neuen “Agent Skill” für die Gemini-API vorgestellt, der Wissenslücken bei SDK-Änderungen schließt und die Erfolgsrate bei Code-Aufgaben von 28% auf über 96% steigern soll. Und überall liest man: Agentic AI ist das Nächste. Das Große. Die nächste Stufe.
Ich glaube das. Aber ich glaube auch, dass die meisten Unternehmen das Fundament dafür noch nicht gebaut haben.
Was Agentic AI wirklich ist
Bevor wir über Hyperagents reden, brauchen wir ein gemeinsames Bild. Agentic AI beschreibt KI-Systeme, die nicht nur auf Eingaben reagieren – wie klassische Chatbots oder Copiloten –, sondern eigenständig Ziele verfolgen, Entscheidungen treffen, Werkzeuge nutzen und mehrstufige Aufgaben autonom abarbeiten.
Ein Agent liest eine E-Mail, erkennt eine Bestellung, ruft das ERP-System ab, prüft den Lagerbestand, löst eine Beschaffungsanfrage aus und schreibt die Antwort – ohne menschliches Eingreifen in jedem Schritt.
Das ist keine Science-Fiction. Das funktioniert heute, in spezifischen, gut definierten Szenarien. Die Frage ist nicht, ob Agentic AI möglich ist. Die Frage ist: Welche Unternehmen sind bereit dafür?
Das eigentliche Problem: Das Fundament fehlt
Hier liegt der Kern meiner These, und ich sage sie bewusst deutlich: Viele Unternehmen, die heute über Agentic AI reden, haben noch nicht einmal einfache Automatisierung implementiert.
Was ich meine, ist konkret:
- Manuelle Genehmigungsprozesse, die sich mit einfachen Workflow-Tools wie n8n oder Power Automate abbilden ließen
- Keine strukturierten API-Schnittstellen zu den eigenen Kernsystemen
- Stammdaten, die in Excel-Tabellen gepflegt werden, statt in einem sauberen Master-Data-System
- Prozesse, die niemand vollständig dokumentiert hat – geschweige denn harmonisiert
Ein KI-Agent ist so gut wie die Systeme und Daten, auf die er zugreift. Wenn ein Agent in ein ERP greift, das selbst schlechte Datenhygiene hat, multipliziert er den Fehler – er löst ihn nicht.
Deshalb fühlt sich der Sprung auf Agentic AI für so viele Teams so groß an. Nicht weil die Technologie zu komplex ist. Sondern weil das Fundament fehlt.
Die Automatisierungspyramide: Wo stehen Sie wirklich?
Ich denke Automatisierung als eine Pyramide – mit dem Fundament unten:
┌─────────────────────────┐
│ Ebene 3: Agentic AI │ Autonome, zielverfolgende Systeme
├─────────────────────────┤
│ Ebene 2: Intelligente │ ML/AI-gestützte Entscheidungen,
│ Automatisierung │ Klassifikation, Anomalie-Erkennung
├─────────────────────────┤
│ Ebene 1: Prozessauto- │ Workflow-Tools, RPA,
│ matisierung │ einfache Integrationen
├─────────────────────────┤
│ Fundament: Daten, │ Saubere Stammdaten, dokumentierte
│ Prozesse, APIs │ Prozesse, strukturierte Schnittstellen
└─────────────────────────┘
Ebene 1 – Prozessautomatisierung: Regelbasierte Automatisierung von Standardaufgaben. RPA, Workflow-Tools, einfache Integrationen. Hier sollte jedes Unternehmen mit modernem IT-Anspruch längst stehen. Die Realität: Viele sind es nicht.
Ebene 2 – Intelligente Automatisierung: Entscheidungsunterstützung durch ML/AI. Klassifikationen, Anomalie-Erkennung, Empfehlungssysteme. Hier beginnen viele Unternehmen gerade.
Ebene 3 – Agentic AI: Autonome, mehrstufige Prozesse mit Zielverfolgung, Werkzeugnutzung und Lernfähigkeit. Das ist der aktuelle Hype – und der nächste Schritt.
Das Problem: Man kann nicht direkt zu Ebene 3 springen, wenn das Fundament fehlt oder Ebene 1 noch nicht gebaut ist. Wer das versucht, baut auf Sand.
Neue Risiken, die niemand laut genug benennt
Agentic AI bringt nicht nur neue Möglichkeiten. Es bringt neue Risiken – und die werden in der öffentlichen Diskussion massiv unterschätzt.
Im März 2026 wurden kritische Code-Execution-Schwachstellen in n8n publik – einer der populärsten Open-Source-Automatisierungsplattformen. n8n ist kein Randprodukt; es läuft in tausenden von Unternehmen als Herzstück ihrer Automatisierungsinfrastruktur. Zwei kritische Sicherheitslücken ermöglichten Angreifern Remote-Code-Execution auf den betroffenen Systemen.
Stellen Sie sich das mit einem vollautonomen KI-Agenten vor, der Zugriff auf E-Mails, ERP, HR-Daten und Finanzsysteme hat. Ein kompromittierter Agent ist kein kompromittierter Mensch – er skaliert automatisch.
Das führt mich zu drei Grundsätzen, die ich für jeden Einsatz von Agentic AI als unverzichtbar betrachte:
1. Least Privilege für Agenten: Kein Agent bekommt mehr Zugriff als für seine spezifische Aufgabe nötig. Ein Agent, der Bestellanfragen verarbeitet, braucht Lese-Zugriff auf Mailbox und ERP-Abfragevermögen – aber nicht auf HR-Gehaltsabfragen oder Bankschnittstellen. Das klingt selbstverständlich. In der Praxis ist es das nicht.
2. Menschliche Aufsicht bei kritischen Aktionen: Autonomie ja – aber mit klar definierten Eskalationspunkten. Alles, was Geld bewegt, Daten nach außen sendet oder irreversible Aktionen auslöst, braucht einen Human-in-the-Loop. Das ist kein Zeichen von mangelndem Vertrauen in die Technologie – es ist vernünftiges Risikomanagement.
3. Monitoring und Audit-Trail: Jede Aktion eines Agenten muss nachvollziehbar sein. Wer hat was ausgelöst? Mit welchen Daten? Mit welchem Ergebnis? Das ist nicht nur gut für die Sicherheit – es ist auch eine Anforderung des EU AI Act für Hochrisikoklassen.
Was IT-Führungskräfte jetzt tun sollten
Mein Rat ist nicht “Abwarten”. Aber er ist auch nicht “Sofort loslegen”. Er ist: Fundament bauen – und dabei bereits auf Agenten vorbereiten.
Konkret:
- API-Landschaft aufräumen: Welche Kernsysteme haben saubere, dokumentierte APIs? Das ist die Grundlage für jeden Agenten – und der häufigste Engpass in der Praxis.
- Prozesse inventarisieren und dokumentieren: Kein Agent kann einen Prozess automatisieren, den niemand verstanden hat.
- Datenhygiene verbessern: Stammdaten, Klassifikationen, Zugriffsrechte – das muss sauber sein, bevor Agenten darauf zugreifen.
- Proof of Concept mit klaren Grenzen: Einen konkreten, abgegrenzten Use Case wählen, vollständig automatisieren, evaluieren. Und dabei sofort fragen: Wie schnell können wir diese Automation wieder stoppen, wenn etwas schiefläuft? Ein Agent ohne Rollback-Strategie ist kein Proof of Concept – es ist ein Risiko.
- Security-Modell für Agenten definieren: Bevor der erste Agent läuft, muss das Berechtigungs- und Monitoring-Konzept stehen.
Mein Standpunkt: Evolution erfordert Geduld
Meta kann Hyperagents präsentieren. Google kann Agent Skills launchen. Das ändert nichts daran, dass Ihr Unternehmen seinen eigenen Weg gehen muss – in seinem eigenen Tempo, auf seinem eigenen Fundament.
Agentic AI ist die Evolution der Automatisierung. Diese Evolution ist real, und sie wird Unternehmen, die vorbereitet sind, erhebliche Vorteile bringen: schnellere Prozesse, niedrigere Kosten, mehr Kapazität für wertschöpfende Arbeit.
Aber Evolution braucht Zeit. Und vor allem: Sie braucht ein Fundament.
Der nächste Hype ist immer eine Schicht über dem letzten. Bevor man Agentic AI sinnvoll einsetzen kann, muss man Automatisierung beherrschen. Bevor man Automatisierung beherrscht, muss man Prozesse verstehen. Und bevor man Prozesse versteht, muss man Daten im Griff haben.
Wenn Sie gerade in Ihrem Unternehmen über Agentic AI diskutieren und dabei ein ungutes Gefühl haben – gut. Das ist das richtige Signal. Es bedeutet nicht, dass Sie zurückbleiben. Es bedeutet, dass Sie die Grundlagen ernst nehmen.
Das ist kein pessimistischer Standpunkt. Es ist ein klarer Fahrplan.
Auf welcher Ebene der Automatisierungspyramide steht Ihr Unternehmen heute? Ich freue mich auf den Austausch in den Kommentaren.
Quellen & Referenzen:
- The Decoder: Meta präsentiert Hyperagents (28. März 2026) – the-decoder.de
- The Decoder: Google entwickelt Agent Skill für Gemini-API – Erfolgsrate steigt von 28% auf 96% (28. März 2026) – the-decoder.de
- Heise Security: n8n-Plattform: Kritische Code-Execution-Schwachstellen (März 2026) – heise.de/security
- Gartner: Hype Cycle for Artificial Intelligence 2025 – gartner.com
- EU AI Act – Anforderungen für Hochrisikoklassen: eur-lex.europa.eu
- McKinsey Digital: The state of AI in 2025: Agents, autonomy and enterprise readiness – mckinsey.com