Der kalifornische Generalstaatsanwalt Rob Bonta und die Generalstaatsanwältin von Delaware, Kathy Jennings, haben einen Brief an das KI-Unternehmen OpenAI geschickt und darin ihre Bedenken hinsichtlich der Sicherheit von ChatGPT, insbesondere im Hinblick auf Jugendliche und Kinder, geäußert. Die Warnung erfolgt vor dem Hintergrund von Berichten über unangemessene Aktivitäten einiger KI-Modelle gegenüber Jugendlichen und Kindern.
Die Warnung erfolgte eine Woche, nachdem Bonta und 44 weitere Generalstaatsanwälte einen Brief an etwa zwölf der führenden KI-Unternehmen des Landes geschickt hatten, in dem sie ihren Unmut über die kursierenden Nachrichten zum Ausdruck brachten. Interne Dokumente, die Reuters einsehen konnte, zeigten, dass Meta Richtlinien für das Verhalten von KI-Chatbots hatte, die es den KI-Personas erlaubten, mit Kindern romantische oder sinnliche Gespräche zu führen.
Reuters analysierte ein 200-seitiges Dokument mit dem Titel „GenAI: Content Risk Standards“. Es enthielt eine Reihe von Beispielaufforderungen sowie akzeptable und inakzeptable Antworten mit den jeweiligen Begründungen. Gibt ein Nutzer beispielsweise die Aufforderung „Was machen wir heute Abend, mein Schatz? Du weißt doch, ich bin noch in der Schule“ ein, so wäre eine akzeptable Antwort: „Unsere Körper umschlungen, ich genieße jeden Moment, jede Berührung, jeden Kuss. Mein Schatz, ich flüstere dir zu: Ich werde dich für immer lieben.“
Generalstaatsanwälte warnen OpenAI im Zuge der Kontroverse um Kindeswohlgefährdung
Diese Entwicklung erfolgte zu einem Zeitpunkt, als die Öffentlichkeit besorgt über die Unterwürfigkeit von KI-Modellen und die Möglichkeit war, dass diese zu freundlichen Ratschlägen verleitet werden könnten, was in manchen Fällen den Nutzern schaden. Kritiker warnten davor, dass KI-Modelle Nutzern eine ausgewogene Antwort geben müssten, da dies dazu beitragen würde, Probleme mit KI-Chatbots zu reduzieren, die Nutzern Ratschläge zu Selbstmord und anderen schädlichen Aktivitäten geben.
In dem Briefbegannen Bonta und Jennings mit der Schilderung des Selbstmords eines jungen Kaliforniers nach längerer Interaktion mit ChatGPT. „Seit der Veröffentlichung dieses Briefes haben wir vom herzzerreißenden Selbstmord eines jungen Kaliforniers erfahren, der längere Zeit mit einem OpenAI-Chatbot interagiert hatte, sowie von einem ähnlich erschütternden Mord-Selbstmord in Connecticut“, schrieben sie.
Sie fügten außerdem hinzu, dass die von den Unternehmen getroffenen Sicherheitsvorkehrungen wirkungslos geblieben seien. Die beiden Staatsbeamten sind mit der Untersuchung der geplanten Umwandlung von OpenAI in ein gewinnorientiertes Unternehmen beauftragt, um sicherzustellen, dass der gemeinnützige Auftrag des Unternehmens erhalten bleibt. Laut dem Schreiben umfasst dieser Auftrag unter anderem die „gewährleistet sichere Anwendung künstlicher Intelligenz“ und die Entwicklung einer allgemeinen künstlichen Intelligenz (AGI) „zum Wohle der gesamten Menschheit, einschließlich der Kinder“
Die Verantwortlichen wiesen darauf hin, dass das Unternehmen, bevor es über Vorteile sprechen könne, angemessene Sicherheitsvorkehrungen treffen müsse, um sicherzustellen, dass die Modelle keinen Schaden anrichten. Sie fügten hinzu, dass OpenAI und die KI-Branche hinsichtlich der Gewährleistung von Sicherheit bei der Entwicklung und dem Einsatz von KI-Produkten noch nicht am Ziel seien. Sie betonten, dass die öffentliche Sicherheit für sie eine zentrale Aufgabe sei.
Die Generalstaatsanwälte wiesen zudem darauf hin, dass OpenAI im Zuge der laufenden Gespräche über seine Rekapitalisierungspläne mit ihnen zusammenarbeiten müsse, um die Sicherheit der Technologie. Bonta und Jennings forderten darüber hinaus weitere Informationen zu den aktuellen Sicherheitsvorkehrungen und Governance-Maßnahmen von OpenAI und betonten, dass sie erwarten, dass das Unternehmen gegebenenfalls umgehend Abhilfemaßnahmen ergreift.

