FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

ChatGPT verbreitet immer noch Unwahrheiten, sagt EU Data Watchdog 

In diesem Beitrag:

  • Laut einem neuen Bericht bleibt ChatGPT immer noch hinter den Datengenauigkeitsstandards der EU zurück.
  • Laut EU sind die Bemühungen von OpenAI, ChatGPT in Einklang zu bringen, „unzureichend“.
  • Das Engagement von OpenAI für die Benutzersicherheit ist in Frage gestellt.

Laut einem neuen Bericht der EU-Datenschutzbehörde bleibt ChatGPT, der virale Chatbot von OpenAI, immer noch hinter den Datengenauigkeitsstandards der Europäischen Union zurück. 

Lesen Sie auch: Europas KI-Gesetz erhält endgültige Genehmigung mit Geldstrafen von bis zu 38 Millionen US-Dollar

Der Bericht des Datenschutzausschusses der Europäischen Union (EDPB) ist kein juristisches Dokument. Es wird jedoch einen gemeinsamen Ansatz zur Regulierung von ChatGPT in den 27 Mitgliedstaaten der EU liefern.

ChatGPT entspricht nicht den Datenstandards

Nationale Aufsichtsbehörden haben letztes Jahr die „ChatGPT-Task Force“ gegründet, nachdem in mehreren europäischen Ländern laufende Fälle gegen das KI-Modell anhängig waren. Die Task Force ist dem EDSA unterstellt.

In einem Bericht sagte die Task Force:

„Obwohl die zur Einhaltung des Transparenzgrundsatzes ergriffenen Maßnahmen hilfreich sind, um eine Fehlinterpretation der Ausgabe von ChatGPT zu vermeiden, reichen sie nicht aus, um den Grundsatz der Datengenauigkeit einzuhalten.“

Große Sprachmodelle (LLMs) sind dafür berüchtigt, „Halluzinationen“ zu erzeugen – technisches Sprachrohr dafür, wenn KI-Chatbots Unwahrheiten ausspucken, oft mit Selbstvertrauen.

Chatbots wie ChatGPT oder Googles Gemini basieren auf LLMs. Gemäß Europas strenger Datenschutz-Grundverordnung (DSGVO) können Nutzer klagen, weil sie falsch dargestellt wurden oder ihnen die Möglichkeit verweigert wurde, unrichtige Informationen über sich selbst zu korrigieren.

Siehe auch  Nissan Eyes Foxconn EV Fertigungsgeschäft, um die Oppama -Pflanze zu retten

Im Bericht der Task Force heißt es: „Aufgrund der probabilistischen Natur des (KI-)Systems führt der aktuelle Trainingsansatz zu einem Modell, das möglicherweise auch voreingenommene oder erfundene Ergebnisse liefert.“

„Die von ChatGPT bereitgestellten Ausgaben werden von Endbenutzern wahrscheinlich als sachlich korrekt angesehen, einschließlich Informationen zu Einzelpersonen, unabhängig von ihrer tatsächlichen Genauigkeit“, fügte er hinzu.

ChatGPT
Flagge der Europäischen Union. Quelle: Pixabay

Die EU verdoppelt ihre Compliance

OpenAI hat zuvor die technische Komplexität als Grund dafür angeführt, dass es Fehlinformationen nicht korrigiert, doch die Aufsichtsbehörde der Europäischen Union verdoppelt ihre Anstrengungen.

„Insbesondere kann die Nichteinhaltung dieser Anforderungen nicht mit der Begründung technischer Unmöglichkeit begründet werden“, stellte die Task Force fest.

In einem neu eröffneten Fall verklagt eine österreichische Persönlichkeit des öffentlichen Lebens ChatGPT wegen der unterlassenen Korrektur ihres Geburtsdatums. OpenAI sagte, dies sei technisch nicht machbar, aber dieser neue Bericht werde den Druck auf das KI-Modell erhöhen.

Eine mit dem Fall befasste Datenschutzanwältin Maartje de Graaf sagte dass Unternehmen derzeit nicht in der Lage seien, KI-Chatbots bei der Verarbeitung von Daten über Einzelpersonen an das EU-Recht anzupassen.

„Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, kann es nicht zur Generierung von Daten über Einzelpersonen verwendet werden. Die Technologie muss den gesetzlichen Anforderungen folgen, nicht umgekehrt“, erklärte de Graaf.

Siehe auch  US -Beamte, die von AI Sprachbetrug betrogen wurden, der sich als Außenminister Rubio ausgibt

ChatGPT

Bei OpenAI drohen Sicherheitsbedenken

Experten sagen, dass ChatGPT ehrgeizige Änderungen erfordert, um nicht mit der DSGVO , die den Datenschutz in der Europäischen Union regelt.

Die Regeln bieten auch ein Arbeitsmodell für Datengesetze in Argentinien, Brasilien, Chile, Japan, Kenia, Mauritius, Südafrika, Südkorea, der Türkei und dem Vereinigten Königreich.

Lesen Sie auch: OpenAI verschrottet ChatGPT-Stimme nach der Kontroverse um Scarlett Johansson

Inzwischen das Engagement von OpenAI für die Benutzersicherheit in Frage gestellt worden.

Das Unternehmen wurde von einer Welle hochkarätiger Rücktritte heimgesucht, wobei der Abgang von Mitbegründer Ilya Sutskever, Gretchen Krueger, Jan Leike und einem halben Dutzend anderer ein Argument für einen Kulturwandel war.

Anfang dieser Woche kündigte OpenAI die Sperrung der ChatGPT-Stimme „Sky“ an, nachdem es Bedenken gab, dass sie der Stimme der Schauspielerin Scarlett Johansson im KI-Themenfilm „Her“ ähnelte.


Kryptopolitische Berichterstattung von Jeffrey Gogo

Cryptopolitan Academy: Müde von Marktschwankungen? Erfahren Sie, wie DeFi Ihnen helfen kann, ein stetiges passives Einkommen aufzubauen. Registrieren Sie sich jetzt

Einen Link teilen:

Haftungsausschluss . Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir tron dringend unabhängige dent und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie Anlageentscheidungen treffen.

Meist gelesen

Die meisten gelesenen Artikel werden geladen...

Bleiben Sie über Krypto-Neuigkeiten auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang

Wahl des Herausgebers

Editor's Choice-Artikel werden geladen...

- Der Krypto -Newsletter, der Sie auf dem Laufenden halten -

Die Märkte bewegen sich schnell.

Wir bewegen uns schneller.

Abonnieren Sie täglich Kryptopolitan und erhalten Sie zeitnah, scharf und relevante Krypto -Erkenntnisse direkt in Ihren Posteingang.

Machen Sie jetzt mit und
verpassen Sie nie einen Schritt.

Steigen Sie ein. Holen Sie sich die Fakten.
Voranschreiten.

Abonnieren Sie CryptoPolitan