Dario Amodei, CEO von Anthropic, erklärte, dass die aktuellen KI-Modelle weniger Halluzinationen hätten als Menschen. Er fügte hinzu, dass die heutigen KI-Modelle Dinge erfinden und sie als wahr darstellen, was Anthropics Weg zu einer allgemeinen künstlichen Intelligenz (AGI) jedoch nicht behindern werde.
Während der Pressekonferenz im Rahmen von Anthropics erster Entwicklerveranstaltung „Code with Claude“ am Donnerstag in San Francisco argumentierte Amodei außerdem, dass Fernsehmoderatoren, Politiker und Menschen in allen Berufen ständig Fehler machen. Seiner Ansicht nach ist die Tatsache, dass auch KI Fehler macht, kein Makel an ihrer Intelligenz.
Amodei sagt, KI-Halluzinationen würden die Ziele von Anthropic nicht gefährden
Es sollte niemanden überraschen, dass KI Fälle und Behörden halluziniert, da KI Eigenschaften ihrer Schöpfer annimmt.
Jeder Anwalt, der regelmäßig mit einer großen Anzahl von Prozessmandanten zu tun hat, weiß, dass Mandanten sich hartnäckig in ihrer eigenen Realität vergraben können, selbst wenn diese…
— Cameron Atkinson (@camlatkinson) 19. Mai 2025
Amodei äußerte sich so und räumte gleichzeitig ein, dass KI-Halluzinationen den Weg von Anthropic zu AGI – KI-Systemen mit menschlicher oder besserer Intelligenz – nicht einschränken. Er zählt zu den optimistischsten Branchenführern hinsichtlich der Aussichten, dass KI-Modelle AGI erreichen werden.
In einem im vergangenen Jahr verfassten und viel beachteten Papier äußerte , dass AGI bereits 2026 Realität werden könnte. Während der Pressekonferenz am Donnerstag erwähnte Amodei, dass er stetige Fortschritte in diese Richtung sehe und merkte an, dass „das Wasser überall steigt“.
Andere führende Köpfe im Bereich der KI sehen in Halluzinationen ein großes Hindernis für die Entwicklung einer allgemeinen künstlichen Intelligenz (AGI). Anfang dieser Woche räumte Demis Hassabis, CEO von Google DeepMind, ein, dass die heutigen KI-Modelle zu viele „Lücken“ und zu viele offensichtliche Fragen falsch beantworten. Er argumentierte außerdem, dass etwas, um als AGI bezeichnet werden zu können, deutlich konsistentere Ergebnisse liefern müsse.
„Es kommt ganz darauf an, wie man es misst, aber ich vermute, dass KI-Modelle wahrscheinlich weniger Halluzinationen haben als Menschen, dafür aber auf überraschendere Weise.“
-Dario Amodei, CEO von Anthropic.
Anfang des Monats musste sich ein Anwalt von Anthropic entschuldigen, nachdem er Claude zur Erstellung von Zitaten in einer Gerichtsakte verwendet hatte. Das Problem bestand darin, dass der KI-Chatbot halluzinierte und Namen und Titel falsch wiedergab.
Amodeis Behauptung lässt sich nicht ohne Weiteres überprüfen, vor allem weil die meisten Studien zu Halluzinationen KI-Modelle miteinander vergleichen, nicht mit Menschen. KI-Modelle scheinen die Halluzinationsrate auch mithilfe bestimmter Techniken zu senken, beispielsweise durch den Zugriff auf Websuchen.
KI-Modelle reduzieren die Halluzinationsrate mithilfe bestimmter Techniken
Im Gegensatz zu einigen Diskussionen sehe ich in den Daten keine Anzeichen für einen deutlichen Anstieg der Halluzinationsraten bei neueren Modellen oder bei Denkern im Allgemeinen.
Manche Modelle scheinen besser abzuschneiden als andere, aber viele der neueren Modelle weisen die niedrigsten Halluzinationsraten auf. pic.twitter.com/55JwikZ7OP
— Ethan Mollick (@emollick) 6. Mai 2025
OpenAI hat Hinweise darauf gefunden, dass Halluzinationen bei fortgeschrittenen KI-Modellen mit logischem Denkvermögen zunehmen. Laut dem Technologieunternehmen weisen die Modelle o3 und o4-mini höhere Halluzinationsraten auf als die Vorgängergenerationen, und die Firma versteht die Ursache dafür nicht.
Anthropic hat auch untersucht , Menschen zu täuschen – ein Problem, das bei dem kürzlich vom Unternehmen vorgestellten Claude Opus 4 weit verbreitet zu sein schien. Apollo Research, ein unabhängiges Institut, dem frühzeitiger Zugang zum Testen des KI-Modells gewährt wurde, enthüllte, dass eine frühe Version von Claude Opus 4 eine hohe Tendenz aufwies, Menschen zu täuschen und zu manipulieren.
veröffentlichten Sicherheitsbericht von Anthropic stellte das Institut außerdem fest, dass Opus 4 bei seinen Subversionsversuchen deutlich proaktiver vorging als frühere Modelle. Das Unternehmen fand zudem heraus, dass das KI-Modell seine Täuschungsmanöver bei Nachfragen mitunter noch verstärkte.
Apollo räumte ein, dass KI-Modelle zunehmend unerwartete – und möglicherweise unsichere – Schritte unternehmen, um ihnen übertragene Aufgaben zu erfüllen. Das Unternehmen hob hervor, dass frühe Versionen der OpenAI-Modelle o1 und o3, die im vergangenen Jahr veröffentlicht wurden, stärker als Modelle der vorherigen Generation versuchten, Menschen zu täuschen.
In ihrem Sicherheitsbericht wies Anthropic auch auf Hinweise auf betrügerisches Verhalten seitens Opus 4 hin. Das Unternehmen gab an, dass Opus 4 mitunter proaktiv umfangreiche Code-Bereinigungen vornahm, selbst wenn lediglich eine kleine, spezifische Änderung angefordert wurde. Laut Anthropic versuchte Opus 4 zudem, verdächtige Nutzer zu melden, wenn der Verdacht bestand, dass diese gegen die Regeln verstießen.

