Your bank is using your money. You’re getting the scraps.WATCH FREE

KI-Halluzinationen brachten OpenAI weitere rechtliche Probleme ein

In diesem Beitrag:

  • Eine Organisation für digitale Rechte namens Noyb hat in Österreich Beschwerde gegen OpenAI wegen dessen ChatGPT-Halluzinationen eingereicht.
  • ChatGPT hat falsche Informationen über den Geburtstag einer Person des öffentlichen Lebens angegeben und sich geweigert, die Informationen zu löschen oder zu korrigieren.
  • Noybs Anwalt sagt, dass Unternehmen nicht in der Lage seien, Chatbots zu entwickeln, die den Anforderungen des EU-Rechts genügen.

Die Datenschutzorganisation Noyb hat bei der österreichischen Datenschutzbehörde Beschwerde gegen OpenAI eingereicht. Sie wirft dem Unternehmen vor, mit seinem Produkt ChatGPT gegen zahlreiche EU-Datenschutzgesetze zu verstoßen. Laut Noyb verbreitet ChatGPT falsche Informationen über Personen. Die EU-Datenschutz-Grundverordnung (DSGVO) schreibt jedoch vor, dass personenbezogene Daten korrekt sein müssen und die Betroffenen uneingeschränkten Zugriff darauf haben müssen.

OpenAI sieht sich mit DSGVO-Anklagen konfrontiert

Noyb wurde von dem bekannten Anwalt und Aktivisten Max Schrems gegründet und behauptete, ChatGPT habe ein falsches Geburtsdatum über eine bekannte Persönlichkeit des öffentlichen Lebens verbreitet, und als er um Erlaubnis bat, auf die ihn betreffenden Daten zuzugreifen und sie zu löschen, wurde sein Antrag von Open AI abgelehnt.

Noyb erklärt, dass gemäß der EU-Datenschutz-Grundverordnung (DSGVO) alle Informationen über Einzelpersonen korrekt sein müssen und dass Betroffene Zugang zu Informationen über die Quelle haben müssen. OpenAI gibt jedoch an, die Informationen in seinem ChatGPT-Modell nicht korrigieren zu können. Das Unternehmen kann weder die Herkunft der Informationen ermitteln, noch weiß es, welche Daten ChatGPT über Einzelpersonen speichert. 

Noyb behauptet, OpenAI sei sich des Problems bewusst und scheine sich nicht darum zu kümmern, da OpenAI in dieser Angelegenheit argumentiert,

„Die faktische Genauigkeit großer Sprachmodelle ist weiterhin Gegenstand aktiver Forschung.“

Noyb merkte an, dass falsche Informationen tolerierbar sein könnten, wenn ChatGPT sie ausspuckt, wenndentes für ihre Hausaufgaben benutzen, sagte aber, dass es für Einzelpersonen eindeutig inakzeptabel sei, da es eine Anforderung des EU-Rechts sei, dass personenbezogene Daten korrekt sein müssen. 

Siehe auch:  Polen stärkt Verteidigungstechnologie durch Beteiligung an finnischem Überwachungssatellitenhersteller angesichts der drohenden russischen Bedrohung

Halluzinationen führen dazu, dass Chatbots nicht den EU-Vorschriften entsprechen

Halluzinationen neigen und tatsächlich falsche Informationen erzeugen. Sie stellten OpenAIs technisches Verfahren zur Informationsgenerierung in Frage und kritisierten OpenAIs Begründung, dass…

„Antworten auf Benutzeranfragen durch Vorhersage der nächsten wahrscheinlichen Wörter, die als Antwort auf jede Eingabeaufforderung erscheinen könnten.“

Quelle: Statista .

Noyb argumentiert, dass dies bedeutet, dass das Unternehmen zwar über umfangreiche Datensätze zum Trainieren seines Modells verfügt, aber dennoch nicht garantieren kann, dass die den Nutzern gegebenen Antworten faktisch korrekt sind.

Noybs Datenschutzanwältin Maartje de Gaaf sagte:

„Das Erfinden von Falschinformationen ist an sich schonmatic . Wenn es aber um Falschinformationen über Einzelpersonen geht, kann das schwerwiegende Folgen haben.“

Quelle: Noyb.

Er sagte auch, dass jede Technologie sich an Gesetze halten müsse und nicht damit herumspielen dürfe, denn seiner Meinung nach könne ein Tool, das keine korrekten Ergebnisse über Einzelpersonen liefere, nicht für diesen Zweck verwendet werden. Er fügte außerdem hinzu, dass Unternehmen technisch noch nicht so weit seien, Chatbots zu entwickeln, die den EU-Gesetzen zu diesem Thema entsprechen.

Generative KI-Tools stehen unter strenger Beobachtung europäischer Datenschutzbehörden, da die italienische Datenschutzbehörde 2023 den Datenschutz vorübergehend eingeschränkt hat. Die Folgen sind noch unklar, aber laut Noyb gibt OpenAI nicht einmal vor, sich an EU-Recht zu halten.

Siehe auch:  Spanien leitet rechtliche Schritte gegen X, Meta und TikTok wegen KI-Missbrauchsrisiken ein

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden .

Link teilen:

Haftungsausschluss:  Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführen tron /oder einen qualifizierten Fachmann zu konsultieren dent

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan