Der anthropische CEO Dario Amodei sagte, die aktuellen AI -Modelle halluzinieren weniger als Menschen. Er sagte auch, dass die heutigen KI -Modelle die Dinge erfinden und sie so präsentieren, als ob sie wahr sind, was den Weg von Anthropic in Richtung Agi nicht einschränken.
Während der Pressekonferenz bei Anthropics erstem Entwicklerereignis, Code mit Claude, am Donnerstag in San Francisco, argumentierte Amodei auch, dass TV -Rundfunkveranstalter, Politiker und Menschen in allen Arten von Berufen ständig Fehler machen. Ihm zufolge ist die Tatsache, dass KI auch Fehler macht, kein Klopfen auf ihre Intelligenz.
Amodei sagt
Niemand sollte überrascht sein, dass KI Fälle und Behörden halluziniert, da die KI Merkmale ihrer Schöpfer übernimmt.
Jeder Anwalt, der sich regelmäßig mit Rechtsstreitigkeiten befasst, weiß, dass Kunden sich hartnäckig in seine eigene Realität verankern können, auch wenn es…
- Cameron Atkinson (@camlatkinson) 19. Mai 2025
Amodei machte die Bemerkungen, während er anerkannte, dass KI-Halluzinationen den Weg von Anthropic zu AGI-AI-Systemen mit Intelligenz auf menschlicher Ebene oder besser beschränken. Er war einer der bullischsten Führungskräfte der Branche in Bezug auf die Aussichten von KI -Modellen, die AGI erreicht haben.
In einem weit verbreiteten Papier, das er letztes Jahr geschrieben hat, ist die Führungskraft des Unternehmens der Ansicht, dass AGI bereits 2026 eintreffen könnte. Während der Pressekonferenz am Donnerstag erwähnte Amodei, dass er zu diesem Ende stetige Fortschritte sah und feststellte, dass das „ Wasser überall steigt“.
Andere Führer im KI -Raum glauben, dass Halluzination eine große Hürde für die Erreichung von AGI darstellt. Anfang dieser Woche gab der CEO von Google DeepMind, Demis Hassabis, zu, dass die heutigen KI -Modelle zu viele „Löcher“ und zu viele offensichtliche Fragen falsch machen. Er argumentierte auch, dass es für ihn, dass etwas, das man als Agi bezeichnet hatte, auf der ganzen Linie viel konsequenter müsse.
"Es hängt wirklich davon ab, wie Sie es messen, aber ich vermute, dass KI -Modelle wahrscheinlich weniger als Menschen halluzinieren, aber sie halluzinieren auf überraschendere Weise."
-Dario Amodei, CEO von Anthropic.
Anfang dieses Monats musste sich ein Anwalt, der Anthropic vertrat, gezwungen, sich zu entschuldigen, nachdem er Claude verwendet hatte, um Zitate in einer Gerichtsanmeldung zu erstellen. Das Problem war, dass der KI -Chatbot halluzinierte und Namen und Titel falsch verstanden hat.
Die Behauptung von Amodei ist nicht leicht zu überprüfbar, vor allem, weil die meisten Halluzinationsbenchmarks Pit AI -Modelle gegeneinander; Sie vergleichen Modelle nicht mit Menschen. KI -Modelle scheinen auch die Halluzinationsraten mit bestimmten Techniken zu senken, z. B. Zugriff auf Websuche zu erhalten.
KI -Modelle reduzieren die Halluzinationsraten mit bestimmten Techniken
Im Gegensatz zu einigen Diskussionen sehe ich einfach keine Anzeichen für einen großen Anstieg der Halluzinationsraten für neuere Modelle oder insgesamt in den Daten.
Es scheint, als ob einige Modelle besser abschneiden als andere, aber viele der jüngsten Modelle haben die niedrigsten Halluzinationsraten. pic.twitter.com/55jwikz7op
- Ethan Mollick (@emollick) 6. Mai 2025
OpenAI fand Beweise, die darauf hinweisen, dass Halluzinationen in fortgeschrittenen Argumentations -KI -Modellen verschlechtert werden. Laut dem Technologieunternehmen haben seine O3- und O4-Mini-Modelle höhere Halluzinationsraten als die Argumentationsmodelle der früheren Generation, und das Unternehmen versteht nicht, warum.
Anthropic hat auch untersucht , Menschen zu täuschen, ein Problem, das in der kürzlich gestarteten Claude Opus 4. Apollo Research des Unternehmens weit verbreitet zu sein schien. Ein Institut von Drittanbietern zeigte einen frühen Zugriff auf das Testen des KI-Modells, zeigte, dass eine frühe Version von Claude Opus 4 eine hohe Tendenz zu Schema gegen das Schema gegen Menschen gegen Menschen und täuschte.
veröffentlichten Sicherheitsbericht Anthrope stellte das Institut außerdem fest, dass Opus 4 bei seinen Subversionsversuchen viel proaktiver zu sein schien als frühere Modelle. Die Firma stellte auch fest, dass sich das KI-Modell bei der Stellung von Nachsagen manchmal in seiner Täuschung verdoppelte.
Apollo räumte ein, dass KI -Modelle eher unerwartete - und möglicherweise unsichere - Schritte zur Erreichung delegierter Aufgaben erfordern. Das Unternehmen hob hervor, dass frühe Versionen von OpenA- und O3-Modellen, die im vergangenen Jahr veröffentlicht wurden, mehr versuchten, Menschen als Modelle der früheren Generation zu täuschen.
In seinem Sicherheitsbericht stellte Anthrope auch Hinweise auf Täuschungsverhalten von Opus 4 fest. Das Unternehmen sagte, dass Opus4 manchmal proaktiv eine breite Bereinigung eines Codes durchführt, selbst wenn er gebeten wurde, nur eine kleine, spezifische Änderung vorzunehmen. Laut dem Unternehmen würde OPUS4 auch versuchen, zu pfeifen, wenn es einen Benutzer wahrnahm, der mit Fehlverhalten beschäftigt ist.
Cryptopolitan Academy: Müde von Marktschwankungen? Erfahren Sie, wie DeFi Ihnen helfen kann, ein stetiges passives Einkommen aufzubauen. Registrieren Sie sich jetzt