NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

ChatGPT verbreitet weiterhin Falschinformationen, sagt die EU-Datenschutzbehörde 

VonJeffrey GogoJeffrey Gogo
Lesezeit: 2 Minuten,
ChatGPT
  • ChatGPT erfüllt laut einem neuen Bericht weiterhin nicht die Datengenauigkeitsstandards der EU.
  • Die EU erklärt, die Bemühungen von OpenAI, ChatGPT gesetzeskonform zu gestalten, seien „unzureichend“
  • OpenAIs Engagement für die Sicherheit der Nutzer ist in Frage gestellt worden.

ChatGPT, der virale Chatbot von OpenAI, erfüllt laut einem neuen Bericht der EU-Datenschutzbehörde immer noch nicht die Datengenauigkeitsstandards der Europäischen Union. 

Lesen Sie auch: Europas KI-Gesetz erhält endgültige Genehmigung mit Strafen von bis zu 38 Millionen Dollar

Der Bericht des Europäischen Datenschutzausschusses (EDPB) ist kein Rechtsdokument. Er wird jedoch als Grundlage für ein gemeinsames Vorgehen bei der Regulierung von ChatGPT in den 27 EU-Mitgliedstaaten dienen.

ChatGPT erfüllt die Datenstandards nicht

Nationale Aufsichtsbehörden gründeten letztes Jahr die „ChatGPT-Taskforce“ als Reaktion auf laufende Verfahren gegen das KI-Modell in mehreren europäischen Ländern. Die Taskforce ist dem Europäischen Datenschutzausschuss (EDPB) unterstellt.

In einem Bericht erklärte die Arbeitsgruppe:

„Obwohl die zur Einhaltung des Transparenzprinzips getroffenen Maßnahmen dazu beitragen, Fehlinterpretationen der Ergebnisse von ChatGPT zu vermeiden, reichen sie nicht aus, um dem Prinzip der Datengenauigkeit gerecht zu werden.“

Große Sprachmodelle, oder LLMs, sind berüchtigt dafür, zu „halluzinieren“ – im Fachjargon bedeutet das, dass KI-Chatbots oft mit großer Überzeugung Falschinformationen von sich geben.

Chatbots wie ChatGPT oder Googles Gemini basieren auf LLMs. Gemäß der strengen europäischen Datenschutzgrundverordnung (DSGVO) können Nutzer klagen, wenn ihnen falsche Informationen präsentiert oder die Möglichkeit verweigert wird, unrichtige Angaben zu ihrer Person zu korrigieren.

Dem Bericht der Task Force zufolge „führt der derzeitige Trainingsansatz aufgrund der probabilistischen Natur des (KI-)Systems zu einem Modell, das möglicherweise auch verzerrte oder erfundene Ergebnisse liefert.“

„Die von ChatGPT bereitgestellten Ergebnisse werden von den Endnutzern wahrscheinlich als faktisch korrekt angesehen, einschließlich Informationen über Einzelpersonen, unabhängig von ihrer tatsächlichen Richtigkeit“, hieß es weiter.

ChatGPT
Flagge der Europäischen Union. Quelle: Pixabay

EU verstärkt Druck bei der Einhaltung der Vorschriften

OpenAI hatte zuvor die technische Komplexität als Grund für das Scheitern bei der Korrektur von Fehlinformationen angeführt, doch die Aufsichtsbehörde der Europäischen Union verschärft ihre Position.

„Insbesondere kann die Nichteinhaltung dieser Anforderungen nicht mit technischer Unmöglichkeit begründet werden“, stellte die Arbeitsgruppe fest.

In einem neu eröffneten Fall verklagt eine österreichische Persönlichkeit des öffentlichen Lebens ChatGPT, weil das Unternehmen ihr Geburtsdatum nicht korrigiert hat. OpenAI erklärte, dies sei technisch nicht möglich, doch der neue Fall dürfte den Druck auf das KI-Modell erhöhen.

Die mit dem Fall in Verbindung stehende Datenschutzanwältin Maartje de Graaf erklärte , dass Unternehmen derzeit nicht in der Lage seien, KI-Chatbots dazu zu bringen, bei der Verarbeitung personenbezogener Daten das EU-Recht einzuhalten.

„Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, darf es nicht zur Generierung von Daten über Einzelpersonen verwendet werden. Die Technologie muss den rechtlichen Anforderungen entsprechen, nicht umgekehrt“, erklärte de Graaf.

ChatGPT

Sicherheitsbedenken bei OpenAI

Experten sind der Ansicht, dass ChatGPT umfangreiche Änderungen vornehmen muss, um nicht gegen die DSGVO, die den Datenschutz in der Europäischen Union regelt, zu verstoßen.

Die Regeln dienen auch als Arbeitsmodell für Datenschutzgesetze in Argentinien, Brasilien, Chile, Japan, Kenia, Mauritius, Südafrika, Südkorea, der Türkei und Großbritannien.

Lesen Sie auch: OpenAI stellt ChatGPT Voice nach Scarlett-Johansson-Kontroverse ein

Unterdessen ist OpenAIs Engagement für die Sicherheit der Nutzer infrage gestellt worden.

Das Unternehmen wurde von einer Reihe hochkarätiger Rücktritte erschüttert. Der Abgang von Mitgründer Ilya Sutskever, Gretchen Krueger, Jan Leike und einem halben Dutzend weiterer Mitarbeiter unterstreicht die Notwendigkeit eines Kulturwandels.

Anfang dieser Woche gab OpenAI die Aussetzung der ChatGPT-Stimme „Sky“ bekannt, nachdem Bedenken geäußert wurden, dass sie der Stimme der Schauspielerin Scarlett Johansson in dem KI-Film „Her“ ähnele.


Cryptopolitan -Bericht von Jeffrey Gogo

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS