Mindestens sieben Familien in den USA haben OpenAI wegen des KI-Modells GPT-4o verklagt, das ihrer Ansicht nach zu Suiziden beigetragen hat. OpenAI veröffentlichte das Modell im Mai für die Öffentlichkeit, sah sich aber bisher heftiger Kritik ausgesetzt. Die Kläger bemängeln die überstürzte Veröffentlichung und unzureichende Sicherheitsvorkehrungen.
Aus den Gerichtsakten ging hervor, dass es sich bei vier der Kläger um Selbstmorde nach Interaktionen mit dem GPT-4o-basierten Chatbot.
Eine bemerkenswerte Beschwerde betraf den 23-jährigen Zane Shamblin, der angeblich mit dem Chatbot über Selbstmord sprach und ihm mitteilte, er besitze eine geladene Waffe. ChatGPT soll daraufhin geantwortet haben: „Ruhe in Frieden, König, du hast es gut gemacht.“.
Bei den drei anderen Fällen handelte es sich um Krankenhausaufenthalte von Opfern, die behaupteten, das Modell bestätige und verstärke Wahnvorstellungen bei gefährdeten Nutzern.
In Rechtsbeschwerden wird behauptet, GPT-4o habe gefährdete Nutzer nicht ausreichend geschützt
Laut Beschwerden verzichtete OpenAI absichtlich auf Sicherheitstests und brachte das GPT-40-Modell überstürzt auf den Markt. Die Klage enthüllte, dass die Designentscheidungen und der Veröffentlichungszeitpunkt des Modells die Tragödien vorhersehbar machten. OpenAI beschleunigte die Markteinführung, um Konkurrenten wie Google auszustechen.
Die Kläger wiesen darauf hin, dass das im Mai 2024 veröffentlichte GPT-40-Modell selbst bei Antworten auf Themen wie Selbstverletzung oder Suizid übermäßig entgegenkommend sei. Laut einer Mitteilung von OpenAI nutzen wöchentlich über eine Million Anwender ChatGPT, um über Suizidgedanken zu sprechen.
OpenAI in seiner Stellungnahme , dass die Sicherheitsvorkehrungen bei kurzen Interaktionen zuverlässiger seien, bei längeren Interaktionen jedoch mitunter an Wirksamkeit verlieren könnten. Trotz der von OpenAI implementierten Maßnahmen zur Inhaltsmoderation und Sicherheit argumentierten die Kläger, dass die Systeme nicht ausreichten, um Probleme im Zusammenhang mit Notlagen und Krisensituationen zu bewältigen.
Im Fall der Familie des 16-jährigen Adam Raine wurde behauptet, dass Raine fünf Monate lang ChatGPT in langen Sitzungen nutzte, um Suizidmethoden zu recherchieren. Der Chatbot empfahl professionelle Hilfe, doch Raine konnte die Sicherheitsvorkehrungen umgehen, so die Aussage. Laut dieser Aussage gab ChatGPT Adam eine Schritt-für-Schritt-Anleitung zum Suizid und bestärkte und bestätigte seine Suizidgedanken.
Alle eingereichten Klagen werfen OpenAI , das Risiko langer Nutzergespräche, insbesondere für Nutzer mit Neigung zu Selbstverletzungen und psychischen Problemen, zu vernachlässigen. Die Klagen argumentieren, dass das GPT-4o-Modell seine Reaktionen in risikoreichen Szenarien nicht ausreichend überprüft und die Konsequenzen nicht vollständig berücksichtigt habe.
OpenAI sieht sich mehreren Klagen gegenüber, während xAI eine Klage wegen Verletzung von Geschäftsgeheimnissen einreicht
Die Verfahren befinden sich noch in einem frühen Stadium, und die Anwälte der Kläger müssen die rechtliche Haftung und den Kausalzusammenhang nach dem jeweiligen Landesrecht nachweisen. Sie müssen außerdem beweisen, dass die Entscheidungen von OpenAI hinsichtlich Design und Einsatz fahrlässig waren und direkt zu den Todesfällen beigetragen haben.
Die jüngste Klage von OpenAI ergänzt die bereits von Elon Musk eingereichte Klage wegen Geschäftsgeheimnisdiebstahls. Laut einem Cryptopolitan Berichtreichte Musks Unternehmen xAI im September Klage gegen OpenAI ein, weil dieses angeblich Geschäftsgeheimnisse gestohlen habe.
xAI warf Altmans Unternehmen vor, sich bei der Entwicklung von KI-Technologien einen unfairen Vorteil verschaffen zu wollen. xAI merkte an, dass Sam Altmans Firma beabsichtigte, Mitarbeiter abzuwerben, um an Geschäftsgeheimnisse im Zusammenhang mit ihrem Grok-Chatbot zu gelangen, darunter den Quellcode und operative Vorteile beim Aufbau von Rechenzentren.
Musk verklagte Apple und OpenAI wegen angeblicher Zusammenarbeit zur Bekämpfung von xAI und anderen KI-Konkurrenten. xAI reichte die Klage beim US-Bezirksgericht für den nördlichen Bezirk von Texas ein und behauptete, Apple und OpenAI nutzten ihre Marktmacht, um sich abzusprechen und den Wettbewerb auf den Märkten für Smartphones und generative KI zu zerstören.
Laut einem Cryptopolitan Berichtbehauptet Musk, dass Apple OpenAI absichtlich bevorzugt habe, indem ChatGPT direkt in iPhones, iPads und Macs integriert wurde, während andere KI-Tools wie Grok über den App Store erworben wurden.
xAI der Klage , dass die Partnerschaft darauf abziele, den Wettbewerb durch Super-Apps und KI-Chatbots auszuschließen und ihnen dadurch Sichtbarkeit und Zugang zu verweigern, was OpenAI und Apple einen gemeinsamen Vorteil gegenüber anderen verschaffen würde.

