Sicherheit bildet die Voraussetzung für eine skalierbare KI
2. April 2026
Der Einsatz von Künstlicher Intelligenz (KI) in Unternehmen erweitert die digitale Angriffsfläche erheblich. Was als Produktivitätsgewinn beginnt, kann schnell zu einem Risiko für Daten, Compliance und Steuerbarkeit werden. Mit wachsender Verbreitung steigen nicht nur Investitionen, sondern auch die Anforderungen an Sicherheit und Governance. Viele Organisationen verlieren dabei zunehmend Transparenz über Datenflüsse und Kontrolle über ihre Systeme.
Diese Entwicklung erinnert an die frühe Cloud-Phase: Geschwindigkeit schlägt Struktur – mit bekannten Folgen. Heute zeigt sich ein ähnliches Muster bei KI. Um die Risiken der aufkommenden „Agentic Economy“ zu beherrschen, müssen Unternehmen ihre Sicherheitsstrategie auf vier Säulen stützen:
Zero Trust für Non-Human Identities (NHI) / Zero Trust konsequent auf KI ausweiten
Das Risiko dabei lautet: KI-Systeme greifen nicht nur auf Daten zu, sie generieren auch eigenständig Ergebnisse. Jede nicht geprüfte Interaktion – sei es von Menschen, Modellen oder autonomen Agenten – kann unbefugten Zugriff ermöglichen. Besonders kritisch sind nicht-menschliche Identitäten, deren Zahl rasant steigt. Laut Gartner werden bis 2028 bereits 25 % aller Sicherheitsverletzungen in Unternehmen mit dem Missbrauch von KI-Agenten in Verbindung stehen. Ohne kontrollierte Zugriffs- und Datenrichtlinien wächst das Risiko unbemerkter Sicherheitsvorfälle.
Der technologische Lösungsansatz lautet: Herkömmliche Zero-Trust-Modelle sind auf menschliche User optimiert. Ein modernes Zero-Trust-Framework prüft hingegen jede Anfrage kontextbasiert, überwacht Datenflüsse und gewährt Zugriff nur auf Basis dynamischer Risikobewertungen. Unternehmen sollten vorhandene Sicherheitsarchitekturen erweitern und auf einheitliche Plattformen setzen, statt isolierte Lösungen zu integrieren, die Komplexität und Verwaltungsaufwand erhöhen.
Transparenz und das Problem der „Silent AI Updates“
Schatten-KI ist im Jahr 2026 kein reines Phänomen privater Apps mehr. Die Gefahr droht zunehmend durch „Silent AI Updates“ in bereits genehmigten SaaS-Umgebungen. Viele Anbieter integrieren autonome Funktionen in ihre Plattformen, die im Hintergrund neue Verbindungen zu externen Sprachmodellen (LLMs) aufbauen. So können Daten autonom an ein Drittanbieter-Modell gesendet werden – ohne dass die IT-Sicherheit die neuen Datenpfade validiert hat.
Manuelle Audits reichen als technologische Ansatz nicht aus. Automatisierte Monitoring- und Bewertungsmechanismen verschaffen einen umfassenden Überblick über eingesetzte Tools, Zugriffe und Datenflüsse. Analog zum Cloud-Risikomanagement können Unternehmen so KI-gestützte Funktionen in SaaS-Anwendungen überwachen, Risikobewertungen vornehmen und unkontrollierte Nutzung vermeiden.
Governance frühzeitig und verbindlich etablieren
Das Risiko dieses Modells lautet: Viele Unternehmen implementieren KI schneller, als sie Richtlinien definieren. Fragmentierte Governance erhöht das Risiko von unkontrollierter Nutzung und von Sicherheitsvorfällen. Wer Sicherheit erst im Nachhinein ‚drüber stülpt‘, agiert nicht nur reaktiv, sondern lässt die Türen für massive Haftungsrisiken und Sicherheitsvorfälle weit offen.
Beim technologischen Ansatz ist zu berücksichtigen, dass angesichts der Geschwindigkeit, mit der Agenten agieren, die Einhaltung von Regeln (Policy Enforcement) technisch erzwungen werden muss. Eine belastbare KI-Governance umfasst klare Richtlinien für Nutzung, Datenzugriff, Modelltraining und Ergebnisverwendung. Entscheidend ist der richtige Zeitpunkt: Governance muss vor der Skalierung stehen – nicht danach. Unterstützende Tools zur Protokollierung und Überwachung helfen, Richtlinien durchzusetzen und die Einhaltung automatisiert zu prüfen – ohne Innovationskraft zu bremsen.
Kompetenzen und Technologien gemeinsam entwickeln
Richtlinien allein reichen nicht. Viele Mitarbeitende haben bisher keine KI-Schulung erhalten. Gleichzeitig werden Entscheidungen zunehmend durch agentenbasierte KI-Systeme automatisiert. Das Ungleichgewicht zwischen Kompetenz und Verantwortung führt zu Fehlbedienung und Compliance-Risiken.
Ein integrierter Ansatz bezieht sich nicht nur auf die Technologie, sondern kombiniert auch gezielte Schulungen mit KI-Sicherheitswerkzeugen wie Gateways oder Schutzmechanismen für Modellinteraktionen. So werden Mitarbeitende befähigt und gleichzeitig Systeme gesichert. Diese Kombination reduziert Risiken, während die Automatisierung durch KI weiter zunimmt.
KI entfaltet ihren Mehrwert nur, wenn sie kontrolliert und verantwortungsvoll eingesetzt wird. Entscheidend ist ein integrierter Ansatz aus Transparenz, Governance, Zero Trust und kontinuierlicher Weiterentwicklung von Kompetenzen und Technologien. Wer diese Grundlagen schafft, kann KI produktiv nutzen, Risiken begrenzen und die Kontrolle in einem dynamischen Umfeld behalten.
Mathias Widler ist Vice President Central & Eastern Europe leitet Mathias Widler die Vertriebs- und Außendienstteams bei Netskope.