Du bist von digitaler Gewalt betroffen? 

Wir sind für dich da!

Schreibe eine E-Mail an:

beratung@hateaid.org 

Rufe uns in den Sprechzeiten an:

030 / 252 088 38

Mo 10 – 13 Uhr | Do 15 – 18 Uhr

Chatte mit uns:* Fr 11 – 14 Uhr

Melde Hass über unser Formular:

Zum Meldeformular 

Dickpic erhalten?

Anzeige gegen Dickpics vorbereiten

 



Helft mir!
Datenkrake ChatGPT: Zu sehen ist eine Illustration von zwei Händen, die ein Smartphone halten. Im Smartphone ist die Überschrift "ChatBOT" zu lesen.

ChatGPT-Datenschutz: So schützt du deine Privatsphäre

In diesem Artikel erfährst du, welche Datenschutzrisiken bei ChatGPT bestehen, welche Fehler OpenAI beim Datenschutz bereits gemacht hat und wie du deine Privatsphäre bei der Nutzung des Chatbots bestmöglich schützt

ChatGPT ist in kürzester Zeit zu einem festen Bestandteil des digitalen Alltags geworden. Viele User*innen nutzen die generative künstliche Intelligenz daher nicht nur für technische Belange oder allgemeine Wissensfragen.

Stattdessen teilen sie Vertrauliches: private Probleme, Sorgen, Ängste. Doch was passiert eigentlich mit all den Daten, die dabei in das System geschleust werden?

Warum ist Datenschutz bei ChatGPT ein Problem?

ChatGPT selbst lernt zwar während der Nutzung nicht direkt aus deinen Eingaben.

Allerdings kann OpenAI, das US-amerikanische Software-Unternehmen hinter der künstlichen Intelligenz, deine Chat-Daten zur Weiterentwicklung zukünftiger Modelle verwenden – sofern du dem nicht in den Einstellungen widersprichst.

Der Konzern greift also auf Millionen von Texten und Informationen zu, die frei im Internet verfügbar sind – und auf die Eingaben von Millionen von User*innen. Der Chatbot sucht anschließend nach Sprachmustern in diesen Informationen und gewichtet diese, um dir als User*in passende Antworten zu generieren.

Beispiel: Datenschutzpanne in Italien

Dass die Daten dabei oft nicht in sicheren Händen zu sein scheinen, zeigt ein Beispiel aus Italien. Dort bekamen User*innen von ChatGPT aufgrund eines Software-Fehlers zum Teil private Informationen aus fremden Profilen zu sehen.

Die italienische Datenschutzbehörde sperrte das Programm daraufhin vorübergehend mit dem Hinweis, dass der Betreiber OpenAI nicht ausreichend über die Verwendung von Daten informiere.

Der italienische Datenschutzbeauftragte Guido Scorza erklärte gegenüber dem ZDF Heute: „Wenn ich nicht weiß, wer über meine persönlichen Daten verfügt, dann kann ich auch nicht über deren Verwendung entscheiden.”

Die Datenschutzbehörde entsperrte den Dienst von ChatGPT kurz darauf wieder, nachdem der Betreiber mehrere Bedingungen erfüllt hatte, etwa ein neues Formular, das es User*innen innerhalb der Europäischen Union ermöglicht, Widerspruch gegen die Verwendung ihrer Daten einzulegen.

Hier findest du das passende Datenschutzportal, in dem du unterschiedliche Datenschutzanfragen an OpenAI stellen kannst: https://privacy.openai.com/policies?modal=take-control

Weitere internationale Fälle

International kritisieren Datenschützer*innen, dass ChatGPT regelmäßig falsche Informationen über Personen liefere, ohne diesen eine Möglichkeit zur Korrektur zu bieten, wozu sie nach Artikel 16 der DSGVO verpflichtet sind.

So gab es auch außerhalb Europas Zwischenfälle:

  • In Australien wurde ein Bürgermeister fälschlicherweise der Korruption beschuldigt.
  • In Norwegen bezeichnete ChatGPT einen User irrtümlich als „zweifachen Kindesmörder“.

Derartige Fälle lassen sich schwer nachverfolgen. Denn die Anbieter von KI-Modellen verraten in der Regel nicht, welche Daten sie zum Trainieren ihrer Sprachmodelle genutzt haben. ChatGPT formuliert seine Antworten auf Basis der Sprachmuster sowie anhand der Bedeutungszusammenhänge, die es im Training gelernt hat.

Wenn Anbieter*innen von KI-Modellen diese Trainingsdaten nicht sorgfältig überprüfen, könnten Inhalte mit Fehlinformationen übernommen werden und in zukünftige Antworten einfließen.

Zudem musste OpenAI sich schon mehrfach gegen Klagen wehren – und reagierte seinerseits mit einem öffentlichen Hinweis, laut dem es zu falschen Ergebnissen kommen kann. Doch dieser Hinweis wird von Datenschützenden bemängelt, denn welcher Teil der KI-Antwort falsch sein könnte, wird nicht sofort ersichtlich. Zudem hebelt der Hinweis von OpenAI nicht das Recht auf Berichtigung von unrichtigen personenbezogenen Daten nach Artikel 16 DSGVO aus.

ChatGPT Eingabefeld mit Hinweis für mögliche Falschinformationen.
Laut Datenschützenden ist der Hinweis, dass die KI Fehler machen kann, nicht ausreichend.

Aus Sicht vieler Datenschützenden ist das bei weitem nicht genug. Sie betonen, dass die Vermischung identifizierbarer persönlicher Daten und falscher Informationen einen Verstoß gegen die DSGVO, die Datenschutzgrundverordnung, darstellen.

Grafik mit Hand, die ein Smartphone hält. Darüber ist ein Symbol, das für Datenschutz steht.
Datenschutzbehörden haben immer wieder Sicherheitsbedenken wegen ChatGPT.

So schützt du deine persönlichen Daten bei ChatGPT

Anbieter wie OpenAI müssen dafür sorgen, dass ihre Dienste von vornherein sicher und datenschutzkonform sind. Solange sie dem aber noch nicht nachkommen, kannst du selbst mit folgenden Tipps deine Privatsphäre bei der Nutzung von ChatGPT wenigstens etwas schützen.

Praktische Tipps, um deine Privatsphäre zu wahren:

  • Wichtigster Tipp! Deaktiviere den Haken zur Modellverbesserung:
    Unter den Einstellungen kannst du verhindern, dass deine Eingaben für das Training künftiger Modelle verwendet werden.
ChatGPT Datenschutzeinstellungen - Fenster für "Datenkontrolle"
  • Gib nichts preis, was du privat halten möchtest:
    Egal ob du ChatGPT beruflich oder privat nutzt, halte Angaben so allgemein wie möglich und nenne keine echten Namen, Passwörter oder Kontaktdaten. Verzichte zusätzlich auf den Upload von wichtigen Dokumenten und persönlichen Bildern.
  • Nutze ChatGPT ohne Account:
    Auch ohne Login werden zwar technische Metadaten wie deine IP-Adresse verarbeitet. Die Nutzung ohne Account begrenzt jedoch immerhin die Menge persönlicher Informationen, die über dich gesammelt und zukünftig mit dir in Verbindung gebracht werden kann. Allerdings ist die Nutzung ohne Account mit Funktionseinschränkungen verbunden.
  • Verwende den temporären Chatmodus:
    Diese Unterhaltungen werden nicht für das Training der zukünftigen Modellversionen genutzt. Sie bleiben aber bis zu 30 Tage auf den Servern gespeichert und können von OpenAI in dieser Zeit intern zum Beispiel zur Missbrauchserkennung analysiert werden.
ChatGPT Datenschutz - Chatfenster mit hervorgehobener Einstellung für "Temporärer Chat aktivieren"
  • Deaktiviere die Memory-Funktion:
    Sie speichert persönliche Daten, um Antworten zu personalisieren. Das kannst du mit wenigen Klicks ausschalten. Auch ohne Memory-Funktion solltest du aber darauf achten, keine persönlichen Daten preiszugeben, mit denen ein Profil von dir erstellt werden könnte.
ChatGPT Datenschutz - Fenster für "Personalisierung"
  • Deaktiviere Analyse- und Performance-Cookies:
    Unter den Cookie-Einstellungen kannst du sowohl Analyse- als auch Performance-Cookies deaktivieren. Beide Cookie-Gruppen speichern, wie du mit der Chat-GPT-Website interagierst und verfolgen dein Verhalten teilweise über andere Websites hinweg.
ChatGPT - Cookiefenster

Künstliche Intelligenz, Desinformation & Demokratie

Künstliche Intelligenz ist bei ihrem Versuch, menschliches Verhalten zu imitieren, weit fortgeschritten. In persönlichen Chatverläufen mit der KI äußert sich das in optimierten Antworten. Und auf gesamtgesellschaftlicher Ebene?

Unter dem Titel „Wie ChatGPT unsere Demokratie kapert” warnten etwa Expert*innen in der New York Times vor den zerstörerischen Folgen für unser politisches System.

In dem Artikel dazu heißt es, ChatGPT könne automatisch Kommentare verfassen und etwa die Arbeit der russischen Internet Research Agency bei ihrem Versuch nachahmen, die US-Wahlen 2016 zu beeinflussen – nur ohne Hunderte von Mitarbeiter*innen.

Erst kürzlich wurde außerdem publik: Der Kreml nutzt wohl Chatbots wie den von ChatGPT, um riesige Mengen russischer Propaganda einzuschleusen. Eine Studie der Organisation NewsGuard ergab, dass mehr als ein Drittel der KI-Dialog-Assistent*innen (wie ChatGPT) prorussische Falschinformationen enthielten.

Grafik eines Computer-Bildschirms, der die Startseite von ChatGPT zeigt. Text auf dem Bild: Chatbots sind anfällig dafür, russische Propaganda zu verbreiten.
Auch der Kreml nutzt das Potenzial von KI – und könnte damit zukünftig Wahlen beeinflussen.

Fazit: ChatGPT sicher nutzen und kritisch bleiben

Zukünftig wird es wohl kaum einen Bereich geben, der von künstlicher Intelligenz unberührt bleibt. Deshalb lohnt sich eine kritische Auseinandersetzung mit den Datenschutzrisiken.

In diesem Artikel beziehen wir uns auf ChatGPT aufgrund der Popularität. Aber ganz egal, ob du ChatGPT oder ein anderes KI-Modell nutzt: Du solltest immer vorsichtig mit persönlichen Informationen umgehen und die verfügbaren Datenschutzfunktionen des jeweiligen KI-Dienstes aktivieren. 

Bleib engagiert und auf dem Laufenden mit dem HateAid Newsletter!

Du erhältst alle zwei bis vier Wochen Neuigkeiten rund um unsere Arbeit und erfährst, wie du die Online-Welt ein kleines Stückchen besser machen kannst.


    Mehr Infos in unserer Datenschutzerklärung. *