OpenAI hat die Veröffentlichung seines mit Spannung erwarteten Tools zur Texterkennung, das vom ChatGPT-Modell generiert wird, verschoben. Berichten zufolge verzögert sich der Start aufgrund möglicher Probleme, die die Benutzerfreundlichkeit und das Ökosystem beeinträchtigen könnten.
Das Wall Street Journal berichtete, dass OpenAI die Veröffentlichung des Tools seit einem Jahr vorbereitet, diese aber hauptsächlich aufgrund von Risiken und verschiedenen Problemen verschoben hat. Die Entscheidung, den Start des Tools zu verzögern, scheint auch mit dem Feedback der Nutzer zusammenzuhängen. Eine von OpenAI durchgeführte Umfrage ergab, dass fast ein Drittel der treuen ChatGPT-Nutzer durch die Einführung einer Anti-Cheat-Technologie abgeschreckt werden könnten.
Funktionsweise des Anti-Cheat-Tools
Laut dem Center for Democracy and Technology glauben 59 % der Mittel- und Oberstufenlehrer, dassdentKI in ihren Aufgaben verwendet haben – ein Anstieg gegenüber dem Vorjahr.
Das Anti-Cheat-Tool funktioniert, indem es ein Wasserzeichen in den von einer KI verfassten Text einbettet. Obwohl dieses Wasserzeichen mit bloßem Auge unsichtbar ist, kann die Erkennungstechnologie von OpenAI es erfassen. Das Tool liefert einen Wert, der die Wahrscheinlichkeit angibt, dass ein bestimmter Text von ChatGPT geschrieben wurde. Diese Wasserzeichentechnik gilt als nahezu perfekt, da interne Dokumente eine Effektivität von 99,9 Prozent belegen, wenn ChatGPT große Mengen an Inhalten generiert.
Allerdings wurden einige Bedenken hinsichtlich des Tools geäußert. Ein Hauptanliegen ist, dass es für Nicht-Muttersprachler nachteilig sein könnte. Manche befürchten, dass das Wasserzeichen nicht so effektiv ist wie gewünscht oder Werke von Autoren mit geringen Englischkenntnissen fälschlicherweise als Plagiat kennzeichnet. Kritiker äußerten zudem die Sorge, dass das Wasserzeichen durch Übersetzung oder das Einfügen und Löschen von Emojis entfernt oder manipuliert werden kann.
Eine weitere Frage ist, wer das Erkennungswerkzeug nutzen darf. Eine Beschränkung des Zugriffs könnte die Anwendbarkeit des Wasserzeichenverfahrens verringern; ein freier Zugriff hingegen könnte es wirkungslos machen.
Andere Technologiekonzerne entwickeln ähnliche Lösungen
Obwohl OpenAI das Anti-Cheat-Tool für Texte noch nicht implementiert hat, wendet das Unternehmen bereits Wasserzeichen für Audio- und Videoausgaben an. Diese Multimediaformate werden vom Unternehmen als prioritär eingestuft, da KI-generierte Deepfakes ein höheres Risiko darstellen als textbasierte Inhalte.
Auch andere Technologieunternehmen entwickeln ähnliche Lösungen. Google beispielsweise arbeitet an einer eigenen Wasserzeichenlösung namens SynthID, die sich noch in der Beta-Phase befindet. OpenAI priorisiert hingegen Audio- und visuelle Wasserzeichen gegenüber Textwasserzeichen, da deren Auswirkungen gravierender sind und insbesondere in kritischen Phasen wie Wahljahren auftreten können.
Diese Nachricht kommt zu einem Zeitpunkt, an dem Elon Musk erneut vor Gericht steht, um OpenAI zu verklagen. Er wirft dem Unternehmen und seinen Gründern, Sam Altman und Greg Brockman, vor, vom ursprünglichen Ziel abgewichen zu sein, KI zum Wohle der Menschheit zu entwickeln.

