Die Datenschutzorganisation Noyb hat bei der österreichischen Datenschutzbehörde Beschwerde gegen OpenAI eingereicht. Sie wirft dem Unternehmen vor, mit seinem Produkt ChatGPT gegen zahlreiche EU-Datenschutzgesetze zu verstoßen. Laut Noyb verbreitet ChatGPT falsche Informationen über Personen. Die EU-Datenschutz-Grundverordnung (DSGVO) schreibt jedoch vor, dass personenbezogene Daten korrekt sein müssen und die Betroffenen uneingeschränkten Zugriff darauf haben müssen.
OpenAI sieht sich mit DSGVO-Anklagen konfrontiert
Noyb wurde von dem bekannten Anwalt und Aktivisten Max Schrems gegründet und behauptete, ChatGPT habe ein falsches Geburtsdatum über eine bekannte Persönlichkeit des öffentlichen Lebens verbreitet, und als er um Erlaubnis bat, auf die ihn betreffenden Daten zuzugreifen und sie zu löschen, wurde sein Antrag von Open AI abgelehnt.
Noyb erklärt, dass gemäß der EU-Datenschutz-Grundverordnung (DSGVO) alle Informationen über Einzelpersonen korrekt sein müssen und dass Betroffene Zugang zu Informationen über die Quelle haben müssen. OpenAI gibt jedoch an, die Informationen in seinem ChatGPT-Modell nicht korrigieren zu können. Das Unternehmen kann weder die Herkunft der Informationen ermitteln, noch weiß es, welche Daten ChatGPT über Einzelpersonen speichert.
Noyb behauptet, OpenAI sei sich des Problems bewusst und scheine sich nicht darum zu kümmern, da OpenAI in dieser Angelegenheit argumentiert,
„Die faktische Genauigkeit großer Sprachmodelle ist weiterhin Gegenstand aktiver Forschung.“
Noyb merkte an, dass falsche Informationen tolerierbar sein könnten, wenn ChatGPT sie ausspuckt, wenndentes für ihre Hausaufgaben benutzen, sagte aber, dass es für Einzelpersonen eindeutig inakzeptabel sei, da es eine Anforderung des EU-Rechts sei, dass personenbezogene Daten korrekt sein müssen.
Halluzinationen führen dazu, dass Chatbots nicht den EU-Vorschriften entsprechen
Halluzinationen neigen und tatsächlich falsche Informationen erzeugen. Sie stellten OpenAIs technisches Verfahren zur Informationsgenerierung in Frage und kritisierten OpenAIs Begründung, dass…
„Antworten auf Benutzeranfragen durch Vorhersage der nächsten wahrscheinlichen Wörter, die als Antwort auf jede Eingabeaufforderung erscheinen könnten.“

Noyb argumentiert, dass dies bedeutet, dass das Unternehmen zwar über umfangreiche Datensätze zum Trainieren seines Modells verfügt, aber dennoch nicht garantieren kann, dass die den Nutzern gegebenen Antworten faktisch korrekt sind.
Noybs Datenschutzanwältin Maartje de Gaaf sagte:
„Das Erfinden von Falschinformationen ist an sich schonmatic . Wenn es aber um Falschinformationen über Einzelpersonen geht, kann das schwerwiegende Folgen haben.“
Quelle: Noyb.
Er sagte auch, dass jede Technologie sich an Gesetze halten müsse und nicht damit herumspielen dürfe, denn seiner Meinung nach könne ein Tool, das keine korrekten Ergebnisse über Einzelpersonen liefere, nicht für diesen Zweck verwendet werden. Er fügte außerdem hinzu, dass Unternehmen technisch noch nicht so weit seien, Chatbots zu entwickeln, die den EU-Gesetzen zu diesem Thema entsprechen.
Generative KI-Tools stehen unter strenger Beobachtung europäischer Datenschutzbehörden, da die italienische Datenschutzbehörde 2023 den Datenschutz vorübergehend eingeschränkt hat. Die Folgen sind noch unklar, aber laut Noyb gibt OpenAI nicht einmal vor, sich an EU-Recht zu halten.

