ChatGPT-Datenschutz: So schützt du deine Privatsphäre
In diesem Artikel erfährst du, welche Datenschutzrisiken bei ChatGPT bestehen, welche Fehler OpenAI beim Datenschutz bereits gemacht hat und wie du deine Privatsphäre bei der Nutzung des Chatbots bestmöglich schützt.
ChatGPT ist in kürzester Zeit zu einem festen Bestandteil des digitalen Alltags geworden. Viele User*innen nutzen die generative künstliche Intelligenz daher nicht nur für technische Belange oder allgemeine Wissensfragen.
Stattdessen teilen sie Vertrauliches: private Probleme, Sorgen, Ängste. Doch was passiert eigentlich mit all den Daten, die dabei in das System geschleust werden?
Warum ist Datenschutz bei ChatGPT ein Problem?
ChatGPT selbst lernt zwar während der Nutzung nicht direkt aus deinen Eingaben.
Allerdings kann OpenAI, das US-amerikanische Software-Unternehmen hinter der künstlichen Intelligenz, deine Chat-Daten zur Weiterentwicklung zukünftiger Modelle verwenden – sofern du dem nicht in den Einstellungen widersprichst.
Der Konzern greift also auf Millionen von Texten und Informationen zu, die frei im Internet verfügbar sind – und auf die Eingaben von Millionen von User*innen. Der Chatbot sucht anschließend nach Sprachmustern in diesen Informationen und gewichtet diese, um dir als User*in passende Antworten zu generieren.
Beispiel: Datenschutzpanne in Italien
Dass die Daten dabei oft nicht in sicheren Händen zu sein scheinen, zeigt ein Beispiel aus Italien. Dort bekamen User*innen von ChatGPT aufgrund eines Software-Fehlers zum Teil private Informationen aus fremden Profilen zu sehen.
Die italienische Datenschutzbehörde sperrte das Programm daraufhin vorübergehend mit dem Hinweis, dass der Betreiber OpenAI nicht ausreichend über die Verwendung von Daten informiere.
Der italienische Datenschutzbeauftragte Guido Scorza erklärte gegenüber dem ZDF Heute: „Wenn ich nicht weiß, wer über meine persönlichen Daten verfügt, dann kann ich auch nicht über deren Verwendung entscheiden.”
Die Datenschutzbehörde entsperrte den Dienst von ChatGPT kurz darauf wieder, nachdem der Betreiber mehrere Bedingungen erfüllt hatte, etwa ein neues Formular, das es User*innen innerhalb der Europäischen Union ermöglicht, Widerspruch gegen die Verwendung ihrer Daten einzulegen.
Hier findest du das passende Datenschutzportal, in dem du unterschiedliche Datenschutzanfragen an OpenAI stellen kannst: https://privacy.openai.com/policies?modal=take-control
Weitere internationale Fälle
International kritisieren Datenschützer*innen, dass ChatGPT regelmäßig falsche Informationen über Personen liefere, ohne diesen eine Möglichkeit zur Korrektur zu bieten, wozu sie nach Artikel 16 der DSGVO verpflichtet sind.
So gab es auch außerhalb Europas Zwischenfälle:
- In Australien wurde ein Bürgermeister fälschlicherweise der Korruption beschuldigt.
- In Norwegen bezeichnete ChatGPT einen User irrtümlich als „zweifachen Kindesmörder“.
Derartige Fälle lassen sich schwer nachverfolgen. Denn die Anbieter von KI-Modellen verraten in der Regel nicht, welche Daten sie zum Trainieren ihrer Sprachmodelle genutzt haben. ChatGPT formuliert seine Antworten auf Basis der Sprachmuster sowie anhand der Bedeutungszusammenhänge, die es im Training gelernt hat.
Wenn Anbieter*innen von KI-Modellen diese Trainingsdaten nicht sorgfältig überprüfen, könnten Inhalte mit Fehlinformationen übernommen werden und in zukünftige Antworten einfließen.
Zudem musste OpenAI sich schon mehrfach gegen Klagen wehren – und reagierte seinerseits mit einem öffentlichen Hinweis, laut dem es zu falschen Ergebnissen kommen kann. Doch dieser Hinweis wird von Datenschützenden bemängelt, denn welcher Teil der KI-Antwort falsch sein könnte, wird nicht sofort ersichtlich. Zudem hebelt der Hinweis von OpenAI nicht das Recht auf Berichtigung von unrichtigen personenbezogenen Daten nach Artikel 16 DSGVO aus.

Aus Sicht vieler Datenschützenden ist das bei weitem nicht genug. Sie betonen, dass die Vermischung identifizierbarer persönlicher Daten und falscher Informationen einen Verstoß gegen die DSGVO, die Datenschutzgrundverordnung, darstellen.

So schützt du deine persönlichen Daten bei ChatGPT
Anbieter wie OpenAI müssen dafür sorgen, dass ihre Dienste von vornherein sicher und datenschutzkonform sind. Solange sie dem aber noch nicht nachkommen, kannst du selbst mit folgenden Tipps deine Privatsphäre bei der Nutzung von ChatGPT wenigstens etwas schützen.
Praktische Tipps, um deine Privatsphäre zu wahren:
- Wichtigster Tipp! Deaktiviere den Haken zur Modellverbesserung:
Unter den Einstellungen kannst du verhindern, dass deine Eingaben für das Training künftiger Modelle verwendet werden.

- Gib nichts preis, was du privat halten möchtest:
Egal ob du ChatGPT beruflich oder privat nutzt, halte Angaben so allgemein wie möglich und nenne keine echten Namen, Passwörter oder Kontaktdaten. Verzichte zusätzlich auf den Upload von wichtigen Dokumenten und persönlichen Bildern. - Nutze ChatGPT ohne Account:
Auch ohne Login werden zwar technische Metadaten wie deine IP-Adresse verarbeitet. Die Nutzung ohne Account begrenzt jedoch immerhin die Menge persönlicher Informationen, die über dich gesammelt und zukünftig mit dir in Verbindung gebracht werden kann. Allerdings ist die Nutzung ohne Account mit Funktionseinschränkungen verbunden. - Verwende den temporären Chatmodus:
Diese Unterhaltungen werden nicht für das Training der zukünftigen Modellversionen genutzt. Sie bleiben aber bis zu 30 Tage auf den Servern gespeichert und können von OpenAI in dieser Zeit intern zum Beispiel zur Missbrauchserkennung analysiert werden.

- Deaktiviere die Memory-Funktion:
Sie speichert persönliche Daten, um Antworten zu personalisieren. Das kannst du mit wenigen Klicks ausschalten. Auch ohne Memory-Funktion solltest du aber darauf achten, keine persönlichen Daten preiszugeben, mit denen ein Profil von dir erstellt werden könnte.

- Deaktiviere Analyse- und Performance-Cookies:
Unter den Cookie-Einstellungen kannst du sowohl Analyse- als auch Performance-Cookies deaktivieren. Beide Cookie-Gruppen speichern, wie du mit der Chat-GPT-Website interagierst und verfolgen dein Verhalten teilweise über andere Websites hinweg.

Künstliche Intelligenz, Desinformation & Demokratie
Künstliche Intelligenz ist bei ihrem Versuch, menschliches Verhalten zu imitieren, weit fortgeschritten. In persönlichen Chatverläufen mit der KI äußert sich das in optimierten Antworten. Und auf gesamtgesellschaftlicher Ebene?
Unter dem Titel „Wie ChatGPT unsere Demokratie kapert” warnten etwa Expert*innen in der New York Times vor den zerstörerischen Folgen für unser politisches System.
In dem Artikel dazu heißt es, ChatGPT könne automatisch Kommentare verfassen und etwa die Arbeit der russischen Internet Research Agency bei ihrem Versuch nachahmen, die US-Wahlen 2016 zu beeinflussen – nur ohne Hunderte von Mitarbeiter*innen.
Erst kürzlich wurde außerdem publik: Der Kreml nutzt wohl Chatbots wie den von ChatGPT, um riesige Mengen russischer Propaganda einzuschleusen. Eine Studie der Organisation NewsGuard ergab, dass mehr als ein Drittel der KI-Dialog-Assistent*innen (wie ChatGPT) prorussische Falschinformationen enthielten.

Fazit: ChatGPT sicher nutzen und kritisch bleiben
Zukünftig wird es wohl kaum einen Bereich geben, der von künstlicher Intelligenz unberührt bleibt. Deshalb lohnt sich eine kritische Auseinandersetzung mit den Datenschutzrisiken.
In diesem Artikel beziehen wir uns auf ChatGPT aufgrund der Popularität. Aber ganz egal, ob du ChatGPT oder ein anderes KI-Modell nutzt: Du solltest immer vorsichtig mit persönlichen Informationen umgehen und die verfügbaren Datenschutzfunktionen des jeweiligen KI-Dienstes aktivieren.
