AI Skill Checker hilft, bösartige Payload in Skills zu identifizieren
10. Februar 2026
KI-Skills können bösartigen Payload ausspielen – dabei sind Skills „Programme“, die definieren, was eine Künstliche Intelligenz im Namen des Nutzers ausführen darf. Das birgt ein hohes Risiko, denn kein Nutzer hat die Zeit, jedes Skript oder Kommando zu überprüfen, welches im ersten Moment hilfreich und bekannt erscheint. Bitdefender stellt daher als Reaktion auf die aktuelle Bedrohungslage durch den gefährlichen KI-Assistenten OpenClaw (auch ClawHub genannt) einen kostenlosen AI Skill Checker zur Verfügung.
Mit dem AI Skill Checker können Anwender schnell vor Installation oder Betrieb eines Skills potenzielle Risiken analysieren. Das Angebot analysiert die Hilfen und Automatisierungs-Tools auf verdächtiges Verhalten und alarmiert bei verborgenen Ausführungen, externen Downloads oder unsicheren Kommandos. Nutzer können so auf Informationen basierend Entscheidungen treffen, bevor sie einem Skill Zugriff auf das System oder Daten geben.
Bitdefender reagiert dabei auch auf Befunde zur Risikolage des beliebten und diskutierten Open-Source-Projekts OpenClaw. Die Analysen der Bitdefender Labs für die laufende erste Februarwoche 2026 zeigen, dass 17 Prozent der in OpenClaw bereitgestellten Skills ein verdächtiges Verhalten zeigen.
Von diesen Skills haben 54 Prozent einen Bezug zu Kryptowährungen und -marktplätzen (Solana, Binance, Phantom, Polymarket). Damit ist dieser Bereich mit Abstand am gefährlichsten. Cyber-Kriminelle nutzen auch Payloads für Social Media Utilities zum Automatisieren von Workflows für Reddit, LinkedIn und YouTube.
Mindestens drei verschiedene Skills spielten den AMOS Stealer auf MacOS-Betriebssystemen aus. Bösartige Skills werden geklont und unter verschiedenen Namen skaliert ausgespielt. Die Bereitstellung erfolgt unter Pastebins wie glot.io oder über Github-Repositories.
Das Risiko von OpenClaw liegt in seiner Möglichkeit, Workflows anzustoßen, mit Online-Diensten zu interagieren und Nutzerkonten zu verwalten. Außerdem operieren Skills auf verschiedenen Geräten über Chat- und Messaging-Schnittstellen.
Vorsicht bei der Wahl des Assistenten
Nutzer sollten beim Einsatz von KI-Skills eine besondere Vorsicht walten lassen. Das Ausführen von Shell-Kommandos, das Herunterladen von ausführbaren Daten oder die Aufforderung, externe Tools zu installieren, sind Gefahrenindikatoren. Eine bekannte Quelle oder ein weitverbreiteter Skill sprechen nicht immer für Sicherheit.
Gerade Krypto-Tools sind vorsichtig zu bewerten und sollten nur in isolierten Umgebungen ausgeführt werden. Hilfsangebote, die eine dringende Entscheidung des Nutzers suggerieren, sind besonders kritisch zu beurteilen. (rhh)