Cybersecurity : radikale Neugestaltung durch KI

28. Januar 2025

Mit den rasanten Fortschritten der künstlichen Intelligenz (KI) steht das Jahr 2025 an der Schwelle zu einer radikalen Neugestaltung der Cyber-Sicherheitslandschaft. KI-Technologien werden von Cyber-Kriminellen und staatlichen Akteuren als Waffen eingesetzt, wodurch neue und ernsthafte Bedrohungen für die Cyber-Sicherheit entstehen.

Die Einführung von KI-Technologien schreitet mit hoher Geschwindigkeit voran. ChatGPT beispielsweise erreichte nur 60 Tage nach seiner Einführung 100 Millionen Nutzer und verzeichnet inzwischen mehr als drei Milliarden Besuche pro Monat. Dieses explosionsartige Wachstum ist nicht auf ChatGPT beschränkt, auch andere KI-Modelle wie Claude, Gemini und Midjourney erfreuen sich großer Beliebtheit. Dimension Market Research prognostiziert, dass der globale Markt für große Sprachmodelle bis 2033 ein Volumen von 140 Milliarden Dollar erreichen wird.

KI wird auch die Softwareentwicklung grundlegend verändern. Die Reise geht von einfachen Code-Vervollständigungs-Tools wie GitHub Copilot hin zu vollständigen Code-Erstellungsplattformen wie CursorAI und Replit.com. Diese Fortschritte steigern die Produktivität, bergen aber auch erhebliche Sicherheitsrisiken. KI ermöglicht es Cyber-Kriminellen, vollständige Malware mit nur einer einzigen Eingabeaufforderung zu erstellen, und läutet damit eine neue Ära der Cyber-Bedrohungen ein.

Dieser Gefahr wird durch die Entwicklung verantwortungsbewusster KI begegnet. Dabei werden Schutzmechanismen in große Sprachmodelle (Large Language Models, LLMs) eingebaut, um deren bösartige Nutzung zu verhindern. Softwareentwickler und Anbieter von Cyber-Sicherheit sollten eng zusammenarbeiten, um verantwortungsvolle KI zu fördern.

Sicherheitsexperten verfügen über das Wissen, um Angriffsmethoden zu simulieren und neue Angriffstechniken zu antizipieren. Penetrationstester, White-Hat-Hacker und Red-Teams identifizieren Schwachstellen in Software, bevor Hacker sie ausnutzen können, und schützen sie proaktiv. Partnerschaften zwischen Software- und Cyber-Sicherheitsanbietern sind erforderlich, um LLM-Modelle auf eine mögliche Bewaffnung zu testen.

Aufstieg von Multi-Agenten-KI-Systemen

Im Jahr 2025 werden Multi-Agenten-KI-Systeme sowohl für Angriffe als auch für Verteidigungszwecke aufkommen. Diese autonomen Systeme treffen Entscheidungen, führen Aufgaben aus und interagieren mit Umgebungen, oft im Namen von Menschen. Sie kommunizieren mit anderen KI-Agenten, Datenbanken, APIs, Anwendungen und mehr und passen sich auf Basis von Feedback an.

Angreifer nutzen sie für koordinierte, schwer erkennbare Angriffe, während Verteidiger sie für verbesserte Bedrohungserkennung, schnelle Reaktion und Echtzeit-Zusammenarbeit einsetzen. Multi-Agenten-KI-Systeme teilen Bedrohungsinformationen in Echtzeit und koordinieren Verteidigungsmaßnahmen, um Angriffe effektiver zu identifizieren und abzuwehren.

Ethische und regulatorische Herausforderungen

Mit der zunehmenden Verbreitung von KI werden auch die ethischen und regulatorischen Herausforderungen wachsen. Der EU AI Act tritt im Februar 2025 in Kraft, mit weiteren Bestimmungen ab August.

Es wird erwartet, dass die Zahl der branchenspezifischen KI-Assurance-Frameworks zur Validierung der Zuverlässigkeit, der Vermeidung von Verzerrungen und der Sicherheit von KI zunehmen wird. Diese Plattformen werden die Erklärbarkeit von KI-Ergebnissen sicherstellen, schädliche oder verzerrte Ergebnisse verhindern und das Vertrauen in KI-gestützte Cybersicherheitstools fördern.

Danny Karpati, VP for AI Technologies bei Check Point Software Technologies.

Check Point Software Technologies

Lesen Sie auch