Datenschutzrisiken der beruflichen ChatGPT-Nutzung im Griff

18. Oktober 2023

Viele Berufstätige in Deutschland nutzen ChatGPT im Arbeitsalltag. Die Beliebtheit generativer KI-Dienste und Large Language Models (LLM) stellt Unternehmen allerdings vor die Frage, inwiefern sie Sprachmodellen sensible Unternehmensdaten anvertrauen können.

Wenn es um die Frage geht, welche Daten man ChatGPT anvertrauen darf, sind die Aussagen von Security-Experten gefragt. Spezialisten aus dem Hause Kaspersky haben die folgenden Datenschutzrisiken der beruflichen ChatGPT-Nutzung identifiziert:

  • Datenleck oder Hack seitens des Providers: Obwohl LLM-basierte Chatbots von großen Tech-Konzernen betrieben werden, sind sie nicht immun gegenüber Hacking-Angriffen oder unabsichtlichen Datenlecks. So gab es bereits einen Zwischenfall, bei dem ChatGPT-Nutzer Eingaben aus dem Nachrichtenverlauf anderer Nutzer sehen konnten.
  • Datenleck durch Chatbots: Theoretisch können die Chats verwendet werden, um neue Chatbot-Modelle zu trainieren. Nutzer sollten bedenken, dass LLMs anfällig gegenüber „unabsichtlicher Speicherung“ sind; das heißt: sie können sich einzigartige Sequenzen wie Handynummern merken, die nicht die Modellqualität verbessern, aber die Privatsphäre gefährden. Alle Daten, die Nutzer in den Trainingskorpus eingegeben, können bewusst oder unabsichtlich von Anwendern desselben Sprachmodells aufgerufen werden.
  • Hacking von Accounts: Angreifer können durch Phishing-Angriffe oder Credential Stuffing in Angestellten-Accounts eindringen und auf fremde Daten zugreifen. Außerdem findet die Kaspersky Digital Footprint Intelligence regelmäßig Darknet-Beiträge, die Chatbot Accounts zum Verkauf anbieten.

Die Nutzungsbedingungen der Erfassung, Speicherung, und Verarbeitung von Daten bei KI-Tools sind im B2B-Bereich stärker auf Schutz ausgelegt als im B2C-Sektor. Die B2B-Lösungen speichern normalerweise keine Chatverläufe und in manchen Fällen werden auch keine Daten an den Unternehmensserver gesendet, da der Chatbot lokal im Kundennetzwerk operiert.

„Das Risiko für den Verlust sensibler Daten ist am höchsten, wenn Angestellte persönliche Accounts am Arbeitsplatz verwenden. Unternehmen sollten daher ihr Hauptaugenmerk darauflegen, Mitarbeiter für die Risiken der Chatbot-Nutzung zu sensibilisieren“, so die Sicherheits- und Datenschutzexpertin bei Kaspersky, Anna Larkina. „Einerseits müssen diese verstehen, welche Daten vertraulich oder persönlich sind, oder ein Geschäftsgeheimnis darstellen und nicht an Chatbots weitergeleitet werden dürfen. Andererseits sollten Unternehmen klare Regeln für die Verwendung dieser Dienste – wenn sie überhaupt zugelassen werden – aufstellen.“

Tipps zum Schutz der Privatsphäre im Unternehmen

Da Organisationen generell sensibilisiert sein sollten, wenn es um den Schutz der Privatsphäre im Unternehmen, sollte man die folgenden Tipps beachten:

  • Sichere und eindeutige Passwörter für jeden einzelnen Online-Account verwenden und dabei leicht zu erratende Informationen wie Geburtstage oder Namen vermeiden.
  • Vorsichtig sein bei unaufgeforderten E-Mails, Nachrichten oder Anrufen, in denen nach persönlichen Daten gefragt wird. Die Identität des Absenders überprüfen, bevor sensible Daten weitergeben werden.
  • Mitarbeiter über die neuesten Online-Bedrohungen und Best Practices zum Schutz im Internet informieren.
  • Regelmäßig Betriebssystem, Anwendungen und Antivirenprogramme durch Updates und Sicherheitspatches auf den neuesten Stand bringen.
  • Sensible Informationen niemals mit Dritten über Social-Media-Kanäle teilen.
  • Legitimität der URL-Adresse des Online-Händlers prüfen.
  • Eine Sicherheitslösung mit Cloud-Service-Analytik, wie Kaspersky Endpoint Security Cloud zur Verwaltung von
  • Cloud-Diensten und zur Bewertung von Risiken bei deren Nutzung verwenden. (rhh)

Mehr zu Datenschutzrisiken beim Einsatz von Chatbots

Lesen Sie auch