Ende März 2026 wurde bekannt, dass Hacker die interne KI-Plattform “Lilli” von McKinsey in weniger als zwei Stunden kompromittiert haben. Der Angriffspunkt: ungesicherte API-Endpunkte ohne Authentifizierung – ein handwerklicher Grundfehler in einer intern genutzten Enterprise-KI-Plattform. McKinsey – eines der renommiertesten Beratungsunternehmen der Welt, das selbst Unternehmen zu Digitalisierung und KI berät – hatte die eigene Infrastruktur nicht ausreichend abgesichert.
Das ist kein Ausreißer. Das ist ein Symptom.
Das eigentliche Problem heißt nicht KI – es heißt fehlende Governance
In den letzten zwei Jahren haben Unternehmen aller Größen KI-Tools eingeführt: ChatGPT-Enterprise-Lizenzen, Copilot-Deployments, interne Chatbots, Automatisierungen mit Workflow-Tools wie n8n. Die Geschwindigkeit war beeindruckend. Die Governance dahinter – oft erschreckend dünn.
Was ich in der Praxis regelmäßig sehe: Fachabteilungen nutzen öffentliche KI-Dienste mit internen Daten, weil niemand ihnen eine Alternative angeboten hat. IT-Abteilungen führen KI-Tools ein, ohne Privacy-Impact-Assessments. Und Unternehmen freuen sich über Pilotprojekte, die nach drei Monaten in der Schublade verschwinden, weil niemand die Governance-Fragen geklärt hat.
Das McKinsey-Beispiel ist deshalb so lehrreich, weil es zeigt: selbst Organisationen mit hoher technischer Kompetenz bauen KI-Systeme ohne die nötigen Sicherheitsgrundlagen. Eine ungesicherte API in einem internen KI-System ist kein Versehen – es ist das Ergebnis eines Deployments, das schneller war als die Governance.
Warum KI-Governance zwingend zentral sein muss
Ich höre oft das Argument, KI-Governance solle dezentral sein – nah an den Fachbereichen, agil, selbstorganisiert. Das klingt modern. Es ist aber falsch.
Dezentrale KI-Governance schafft Silos, widersprüchliche Standards und unkontrollierte Risiken. Die Fragen, die bei jeder KI-Entscheidung beantwortet werden müssen, sind keine Fachbereichsfragen – sie sind Querschnittsthemen:
– Enterprise Architecture: Welche Daten fließen wohin? Welche KI-Systeme integrieren sich in welche Prozesse? Wie bleibt die Architektur konsistent?
– IT Security: Wo sind die Angriffsflächen? Sind Endpunkte abgesichert? Welche Berechtigungsmodelle gelten?
– Data Privacy & DSGVO: Welche personenbezogenen oder geschäftskritischen Daten werden verarbeitet? Welche Einwilligungen liegen vor?
– FinOps: Wie hoch sind die laufenden Kosten für Tokens, API-Calls, Lizenzen? Wer hat die Budgetverantwortung?
– AI Act Compliance: Welche KI-Systeme fallen in welche Risikoklasse? Welche Pflichten entstehen daraus?
Kein Fachbereich kann das alleine steuern. Nur eine zentrale KI-Governance-Instanz schafft den nötigen Überblick – und die nötige Durchsetzungskraft.
Das Modell: Zentral steuern, dezentral adoptieren
Mein Ansatz trennt bewusst zwischen Governance und Adoption. Beides ist wichtig, aber es sind unterschiedliche Aufgaben.
Zentrale Governance bedeutet: Eine Instanz – in der Regel unter dem CIO – setzt die Leitplanken. Sie entscheidet, welche KI-Plattformen zugelassen sind, welche Datenklassen verarbeitet werden dürfen, welche Security-Anforderungen gelten und wie der EU AI Act im Unternehmen umgesetzt wird. Diese Instanz genehmigt keine einzelnen Prompts – aber sie genehmigt Plattformen, Prozesse und Datenflüsse.
Dezentrale Adoption bedeutet: In jedem Fachbereich gibt es AI Champions – KI-Botschafter, die die lokale Nutzung treiben, Use Cases identifizieren und Feedback an die zentrale Governance zurückgeben. Ihre Aufgabe ist konkret: Use Cases bewerten, Nutzer begleiten, wöchentliches Feedback zurückmelden. Sie sind keine Entscheider über Infrastruktur und Compliance – aber sie sind die unverzichtbare Brücke zwischen technischer Möglichkeit und fachlichem Bedarf.
Dieser Ansatz ist nicht neu. Er entspricht dem, wie gute IT-Governance schon immer funktioniert hat: klare Zuständigkeiten, klare Entscheidungsebenen, klare Eskalationspfade.
Der EU AI Act: Bürokratisch, aber ein Weckruf
Der EU AI Act ist seit 2024 stufenweise in Kraft getreten. Viele Unternehmen behandeln ihn noch immer wie ein abstraktes Regulierungsprojekt für Juristen. Das ist ein Fehler.
Der AI Act klassifiziert KI-Systeme nach Risiko. Wer KI in der HR-Entscheidung, im Customer Scoring oder in der kritischen Infrastruktur einsetzt, landet schnell in der Hochrisikokategorie – mit entsprechenden Dokumentations-, Transparenz- und Auditpflichten. Konkret: Wer KI für Personalentscheidungen einsetzt, ohne zu dokumentieren, dass ein Mensch die finale Entscheidung trifft, verletzt bereits jetzt geltende Hochrisiko-Anforderungen und riskiert Bußgelder von bis zu 6% des globalen Jahresumsatzes. Wer diese Pflichten nicht kennt, erfüllt sie auch nicht.
Eine zentrale KI-Governance-Instanz sorgt dafür, dass diese Klassifizierung stattfindet – bevor ein System produktiv geht, nicht danach.
Was jetzt zu tun ist
Für IT-Führungskräfte, die gerade ehrlich mit sich selbst sind: Wie viele KI-Systeme laufen in Ihrem Unternehmen, von denen die IT-Abteilung nichts weiß? Wie viele APIs sind im Einsatz, die nie einem Security-Review unterzogen wurden?
Meine Empfehlung für den Start:
1. KI-Inventar aufbauen: Welche KI-Tools, Lizenzen und Systeme sind im Einsatz – offiziell und inoffiziell? Shadow AI ist ein reales Problem, und die meisten IT-Abteilungen unterschätzen seinen Umfang.
2. Risikobewertung nach AI Act: Welche Systeme fallen in welche Risikoklasse? Das muss dokumentiert werden – und zwar jetzt.
3. Security-Baseline für KI-Systeme definieren: API-Sicherheit, Authentifizierung, Datenzugriff. Der McKinsey-Fall zeigt: Das gilt für jeden, unabhängig von Unternehmensgröße oder technischer Kompetenz.
4. Governance-Struktur aufsetzen: Wer entscheidet was? Wer hat Veto-Recht bei neuen KI-Deployments?
5. AI Champions benennen: Dezentrale Adoption braucht dezentrale Ansprechpartner – aber mit klarer Anbindung an die zentrale Governance.
Starten Sie diese Woche mit Punkt 1 – dem KI-Inventar. Sie werden überraschende Dinge finden.
Fazit: Wer KI ohne Governance deployt, deployt Risiken
Der McKinsey-Hack ist kein Warnschuss für McKinsey. Er ist ein Warnschuss für alle Unternehmen, die KI schnell eingeführt haben, ohne die Governance nachzuziehen.
KI ist kein IT-Tool wie jedes andere. Es verarbeitet Geschäftsdaten, trifft Entscheidungen und integriert sich tief in Prozesse. Wer das ohne klare Steuerung tut, schafft Risiken – rechtliche, sicherheitstechnische und strategische.
Zentrale KI-Governance ist kein Bremsklotz für Innovation. Sie ist die Voraussetzung dafür, dass Innovation nachhaltig ist.
—
Was haben Sie bei Ihrem eigenen KI-Inventar gefunden? Ich bin gespannt auf Ihre Erfahrungen – Kommentare und Diskussionen sind willkommen.
—
Quellen & Referenzen:
– Security-Insider: Hacker knacken McKinsey-KI „Lilli” in nur 2 Stunden (März 2026) – [security-insider.de](https://www.security-insider.de)
– EU AI Act – Volltext, Risikokategorien und Bußgeldrahmen: [eur-lex.europa.eu](https://eur-lex.europa.eu)
– Heise Security: n8n-Plattform: Mehrere Schwachstellen mit kritischen Code-Execution-Lücken (März 2026) – [heise.de/security](https://www.heise.de/security)
– Gartner: AI Governance Framework for Enterprise Organizations – [gartner.com](https://www.gartner.com)
– Europäische Kommission: AI Act Compliance Requirements for High-Risk Systems – [digital-strategy.ec.europa.eu](https://digital-strategy.ec.europa.eu)