ChatGPT verbreitet weiterhin Falschinformationen, sagt die EU-Datenschutzbehörde

- ChatGPT erfüllt laut einem neuen Bericht weiterhin nicht die Datengenauigkeitsstandards der EU.
- Die EU erklärt, die Bemühungen von OpenAI, ChatGPT gesetzeskonform zu gestalten, seien „unzureichend“
- OpenAIs Engagement für die Sicherheit der Nutzer ist in Frage gestellt worden.
ChatGPT, der virale Chatbot von OpenAI, erfüllt laut einem neuen Bericht der EU-Datenschutzbehörde immer noch nicht die Datengenauigkeitsstandards der Europäischen Union.
Lesen Sie auch: Europas KI-Gesetz erhält endgültige Genehmigung mit Strafen von bis zu 38 Millionen Dollar
Der Bericht des Europäischen Datenschutzausschusses (EDPB) ist kein Rechtsdokument. Er wird jedoch als Grundlage für ein gemeinsames Vorgehen bei der Regulierung von ChatGPT in den 27 EU-Mitgliedstaaten dienen.
ChatGPT erfüllt die Datenstandards nicht
Nationale Aufsichtsbehörden gründeten letztes Jahr die „ChatGPT-Taskforce“ als Reaktion auf laufende Verfahren gegen das KI-Modell in mehreren europäischen Ländern. Die Taskforce ist dem Europäischen Datenschutzausschuss (EDPB) unterstellt.
In einem Bericht erklärte die Arbeitsgruppe:
„Obwohl die zur Einhaltung des Transparenzprinzips getroffenen Maßnahmen dazu beitragen, Fehlinterpretationen der Ergebnisse von ChatGPT zu vermeiden, reichen sie nicht aus, um dem Prinzip der Datengenauigkeit gerecht zu werden.“
Große Sprachmodelle, oder LLMs, sind berüchtigt dafür, zu „halluzinieren“ – im Fachjargon bedeutet das, dass KI-Chatbots oft mit großer Überzeugung Falschinformationen von sich geben.
Chatbots wie ChatGPT oder Googles Gemini basieren auf LLMs. Gemäß der strengen europäischen Datenschutzgrundverordnung (DSGVO) können Nutzer klagen, wenn ihnen falsche Informationen präsentiert oder die Möglichkeit verweigert wird, unrichtige Angaben zu ihrer Person zu korrigieren.
Dem Bericht der Task Force zufolge „führt der derzeitige Trainingsansatz aufgrund der probabilistischen Natur des (KI-)Systems zu einem Modell, das möglicherweise auch verzerrte oder erfundene Ergebnisse liefert.“
„Die von ChatGPT bereitgestellten Ergebnisse werden von den Endnutzern wahrscheinlich als faktisch korrekt angesehen, einschließlich Informationen über Einzelpersonen, unabhängig von ihrer tatsächlichen Richtigkeit“, hieß es weiter.

EU verstärkt Druck bei der Einhaltung der Vorschriften
OpenAI hatte zuvor die technische Komplexität als Grund für das Scheitern bei der Korrektur von Fehlinformationen angeführt, doch die Aufsichtsbehörde der Europäischen Union verschärft ihre Position.
„Insbesondere kann die Nichteinhaltung dieser Anforderungen nicht mit technischer Unmöglichkeit begründet werden“, stellte die Arbeitsgruppe fest.
In einem neu eröffneten Fall verklagt eine österreichische Persönlichkeit des öffentlichen Lebens ChatGPT, weil das Unternehmen ihr Geburtsdatum nicht korrigiert hat. OpenAI erklärte, dies sei technisch nicht möglich, doch der neue Fall dürfte den Druck auf das KI-Modell erhöhen.
Die mit dem Fall in Verbindung stehende Datenschutzanwältin Maartje de Graaf erklärte , dass Unternehmen derzeit nicht in der Lage seien, KI-Chatbots dazu zu bringen, bei der Verarbeitung personenbezogener Daten das EU-Recht einzuhalten.
„Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, darf es nicht zur Generierung von Daten über Einzelpersonen verwendet werden. Die Technologie muss den rechtlichen Anforderungen entsprechen, nicht umgekehrt“, erklärte de Graaf.

Sicherheitsbedenken bei OpenAI
Experten sind der Ansicht, dass ChatGPT umfangreiche Änderungen vornehmen muss, um nicht gegen die DSGVO, die den Datenschutz in der Europäischen Union regelt, zu verstoßen.
Die Regeln dienen auch als Arbeitsmodell für Datenschutzgesetze in Argentinien, Brasilien, Chile, Japan, Kenia, Mauritius, Südafrika, Südkorea, der Türkei und Großbritannien.
Lesen Sie auch: OpenAI stellt ChatGPT Voice nach Scarlett-Johansson-Kontroverse ein
Unterdessen ist OpenAIs Engagement für die Sicherheit der Nutzer infrage gestellt worden.
Das Unternehmen wurde von einer Reihe hochkarätiger Rücktritte erschüttert. Der Abgang von Mitgründer Ilya Sutskever, Gretchen Krueger, Jan Leike und einem halben Dutzend weiterer Mitarbeiter unterstreicht die Notwendigkeit eines Kulturwandels.
Anfang dieser Woche gab OpenAI die Aussetzung der ChatGPT-Stimme „Sky“ bekannt, nachdem Bedenken geäußert wurden, dass sie der Stimme der Schauspielerin Scarlett Johansson in dem KI-Film „Her“ ähnele.
Cryptopolitan -Bericht von Jeffrey Gogo
Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.
Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)














