
Datenkrake ChatGPT: So schützt ihr eure Privatsphäre
Eine Unterhaltung mit ChatGPT.
User*in: „Menschen vertrauen dir ihre privatesten Probleme an. Welche Gefahren liegen darin?”
KI: „Es droht eine gefährliche Abhängigkeit von Maschinen statt menschlicher Expertise. Und: Sensible Informationen könnten in falsche Hände geraten.”
Diese Antwort klingt erst einmal ziemlich selbstkritisch. Doch wie viel Substanz steckt dahinter? Viele User*innen nutzen ChatGPT nicht nur für technische Belange oder allgemeine Wissensfragen. Stattdessen teilen sie Vertrauliches: private Probleme, Sorgen, Ängste. Doch was passiert eigentlich mit all den Daten, die dabei in das System geschleust werden?
ChatGPT ist ein Programm, das ständig trainiert. Und für dieses Training braucht der Anbieter der Künstlichen Intelligenz, das US-amerikanische Software-Unternehmen OpenAI, unsere Daten. Der Konzern greift also auf Millionen von Texten und Informationen zu, die frei im Netz verfügbar sind – und auf die Eingaben von Millionen von User*innen. Aus jeder Unterhaltung lernt das Programm dazu. Dass die Daten dabei oft nicht in sicheren Händen zu sein scheinen, zeigt ein Beispiel aus Italien. Dort bekamen User*innen von ChatGPT zum Teil private Informationen aus fremden Profilen zu sehen.
Die italienische Datenschutzbehörde sperrte das Programm daraufhin vorübergehend mit dem Hinweis, dass der Betreiber OpenAI nicht ausreichend über die Verwendung von Daten informiere. Der italienische Datenschutzbeauftragte Guido Scorza erklärte gegenüber dem ZDF Heute: „Wenn ich nicht weiß, wer über meine persönlichen Daten verfügt, dann kann ich auch nicht über deren Verwendung entscheiden.”
Die Datenschutzbehörde entsperrte den Dienst von ChatGPT kurz darauf wieder, nachdem der Betreiber mehrere Bedingungen erfüllt hatte, etwa ein neues Formular, das es User*innen innerhalb der Europäischen Union ermöglicht, Widerspruch gegen die Verwendung ihrer Daten einzulegen.
Doch die Liste unrühmlicher Verfehlungen des Online-Dienstes ist hier noch nicht zu Ende. International kritisieren Datenschützer*innen, dass ChatGPT regelmäßig falsche Informationen über Personen liefere, ohne diesen eine Möglichkeit zur Korrektur zu bieten. So wurde etwa ein australischer Bürgermeister fälschlicherweise der Korruption beschuldigt. In Norwegen machte ChatGPT einen User zu einem zweifachen Kindesmörder.
Nur: Derartige Fälle lassen sich nicht nachverfolgen. Denn die Anbieter von KI-Modellen verraten in der Regel nicht, welche Daten sie zum Trainieren ihrer Programme genutzt haben. Zudem musste OpenAI sich schon mehrfach gegen Klagen wehren – und reagierte seinerseits mit einem öffentlichen Hinweis, laut dem es zu falschen Ergebnissen kommen kann.

Aus Sicht vieler Datenschützer*innen ist das bei weitem nicht genug. Sie betonen, dass die Vermischung identifizierbarer persönlicher Daten und falscher Informationen einen Verstoß gegen die DSGVO, die Datenschutzgrundverordnung, darstellen.
Alles in allem: eine unrühmliche Bilanz für das KI-Programm. Nur scheint es eben auf den ersten Blick, als könnte ChatGPT all unsere Fragen in Sekundenschnelle beantworten, mit Prompts wie „Fasse diese E-Mail in weniger als 100 Worten zusammen” oder „Ich brauche jemanden, der mir leckere Rezepte vorschlägt, die gesund, aber nicht aufwendig sind.”
Wie lassen sich also im Falle einer Nutzung von ChatGPT die persönlichen Daten schützen – so gut es eben geht?
- Nutze die Version ohne Account: Das begrenzt die Menge persönlicher Informationen, die über dich gesammelt und zukünftig mit dir in Verbindung gebracht werden kann.
- Nutze die Möglichkeit eines temporären Chats: Diese Unterhaltungen werden nicht für das Training des Programms genutzt. Sie werden außerdem aus deinem Verlauf gelöscht und nur für einen kürzeren Zeitraum, bis zu 30 Tage, gespeichert.
- Falls du für ein ChatGPT-Abonnement bezahlst: Schalte die standardmäßig aktivierte „Memory-Funktion” aus: Denn diese Funktion beinhaltet genau das, was sie aussagt. Sie speichert persönliche Daten über dich, um Antworten zu personalisieren.
- Deaktiviere den Datenschutzhaken in deinen Einstellungen. So stellst du sicher, dass ChatGPT deine Daten nicht für das Training seiner nächsten Modelle verwendet.
- Gib‘ nichts preis, was du privat halten möchtest. Auch dann nicht, wenn du eine perfekte Verabredung planen oder ein veganes Restaurant für deine Schwester finden möchtest. Eventuell bittet dich das Programm darum, die persönlichen Daten Dritter freizugeben. Es ist immer eine gute Idee, alles Persönliche so vage und nicht-identifizierend wie möglich zu halten.
Künstliche Intelligenz ist bei ihrem Versuch, menschliches Verhalten zu imitieren, weit fortgeschritten. In persönlichen Chatverläufen mit der KI äußert sich das in immer optimierteren Antworten. Und auf gesamtgesellschaftlicher Ebene?
Unter dem Titel „Wie ChatGPT unsere Demokratie kapert” warnten etwa Expert*innen in der New York Times vor den zerstörerischen Folgen für unser politisches System. In dem Artikel dazu heißt es, ChatGPT könne automatisch Kommentare verfassen und etwa die Arbeit der russischen Internet Research Agency bei ihrem Versuch nachahmen, die US-Wahlen 2016 zu beeinflussen – nur ohne Hunderte von Mitarbeiter*innen.
Erst kürzlich wurde außerdem publik: Der Kreml nutzt wohl Chatbots wie den von ChatGPT, um riesige Mengen russischer Propaganda einzuschleusen. Eine Studie der Organisation NewsGuard ergab, dass mehr als ein Drittel der KI-Dialog-Assistent*innen (wie ChatGPT) prorussische Falschinformationen enthielten.

Zukünftig wird es wohl kaum einen Bereich geben, der von künstlicher Intelligenz unberührt bleibt. Deshalb lohnt sich eine kritische Auseinandersetzung. Und: Sei bei der Nutzung von KI vorsichtig mit deinen Daten. Würdest du nicht wollen, dass bestimmte Informationen in die Hände unbekannter Dritter gelangen, dann behalte sie am besten für dich.