Eine Datenschutzorganisation hat eine Beschwerde gegen OpenAI eingereicht. Der Grund ist eine falsche Behauptung von ChatGPT über einen norwegischen Mann. Die österreichische Organisation Noyb wirft OpenAI vor, gegen europäische Datenschutzgesetze verstoßen zu haben.
KI-Fehlinformation führt zu rechtlichen Schritten
Arve Hjalmar Holmen fragte ChatGPT nach Informationen über sich selbst. Die KI antwortete mit einer frei erfundenen Geschichte, in der sie behauptete, Holmen sei wegen Mordes an zwei seiner Söhne und des versuchten Mordes an einem dritten verurteilt worden. Laut der falschen Antwort habe er eine 21-jährige Haftstrafe erhalten.
Obwohl das Verbrechen erfunden war, enthielt die Antwort korrekte persönliche Details. ChatGPT gab die Anzahl und das Geschlecht seiner Kinder sowie seine Heimatstadt richtig an. Solche KI-Fehlinterpretationen, auch als Halluzinationen bekannt, entstehen oft durch fehlerhafte oder voreingenommene Trainingsdaten.
Noyb veröffentlichte einen Screenshot der ChatGPT-Antwort in seiner Beschwerde. Die Organisation schwärzte jedoch das genaue Datum der Interaktion. OpenAI hat das Modell inzwischen aktualisiert. Fragt man ChatGPT nun nach Holmen, wird die falsche Mordanschuldigung nicht mehr angezeigt.
Trotz dieser Änderung argumentiert Noyb, dass die falschen Informationen möglicherweise noch in OpenAIs System vorhanden sind. Die Organisation befürchtet, dass ChatGPT Nutzerdaten weiterhin speichert und für zukünftige Trainingszwecke nutzt. Holmen kann nicht überprüfen, ob die falschen Informationen dauerhaft gelöscht wurden.
Datenschutzorganisation fordert Konsequenzen für OpenAI
Noyb hat eine offizielle Beschwerde bei der norwegischen Datenschutzbehörde (Datatilsynet) eingereicht. Die Organisation behauptet, OpenAI habe gegen Artikel 5(1)(d) der DSGVO verstoßen. Diese Vorschrift verpflichtet Unternehmen, personenbezogene Daten korrekt zu halten und regelmäßig zu aktualisieren.
Die Organisation fordert, dass OpenAI die falschen Informationen über Holmen vollständig löscht. Zudem soll OpenAI sein KI-Modell so anpassen, dass solche Fehler in Zukunft vermieden werden. Darüber hinaus verlangt Noyb eine Geldstrafe, um sicherzustellen, dass sich ähnliche Verstöße nicht wiederholen.
Holmen zeigte sich besorgt über die Auswirkungen des Vorfalls. Er fürchtet, dass Menschen die falsche Anschuldigung für wahr halten könnten, selbst wenn OpenAI den Fehler korrigiert. “Manche denken: Wo Rauch ist, da ist auch Feuer. Das macht mir am meisten Angst,” sagte er.
Die Noyb-Anwältin Kleanthi Sardeli kritisierte OpenAI für den Umgang mit Datenschutzgesetzen. “Ein Haftungsausschluss macht die Gesetze nicht ungültig. KI-Unternehmen dürfen die DSGVO nicht ignorieren,” erklärte sie. Sardeli warnte außerdem, dass KI-Fehlinformationen schwere Rufschäden verursachen könnten, wenn sie nicht beseitigt werden.
Dieser Fall könnte einen wichtigen Präzedenzfall für den Datenschutz in der KI-Industrie schaffen. OpenAI hat bislang nicht auf die Beschwerde reagiert.