Die KI-Unternehmen Anthropic und OpenAI unternehmen ernsthafte Schritte, um den wachsenden Risiken ihrer Produkte zu begegnen. Altmans Firma hat Modelle exklusiv für Experten veröffentlicht, um anfällige Systeme zu schützen, während Anthropic nun eine Identitätsprüfung vorschreibt, bevor Nutzer auf bestimmte Funktionen zugreifen können.
Als KI-Modelle erstmals der Öffentlichkeit zugänglich gemacht wurden, dienten sie dazu, Texte in Kunstwerke im Ghibli-Stil zu verwandeln und Einkaufslisten zu schreiben, doch künstliche Intelligenz hat sich schnell zu einem nationalen Sicherheitsrisiko entwickelt.
Warum fragt Anthropic nach meinem Führerschein?
Hacker nutzen bereits KI, um Sicherheitssysteme zu umgehen, was Anthropic dent einzuführen . Nutzer benötigen nun einen physischen amtlichen Ausweis (Reisepass oder Führerschein) und ein Live-Selfie, um bestimmte Funktionen nutzen zu können.
Ihr Partner Persona verarbeitet die Daten. Anthropic hat klargestellt dent der Nutzer nicht zum Trainieren der KI-Modelle verwendet werden. Das Unternehmen erklärte außerdem, die Verifizierung sei notwendig, um „Missbrauch zu verhindern, unsere Nutzungsrichtlinien durchzusetzen und rechtliche Verpflichtungen zu erfüllen“.
Wenn ein Benutzer den Test nicht besteht oder versucht, das System von einem nicht unterstützten Standort aus zu nutzen, kann sein Konto gesperrt werden.
Das plötzliche harte Durchgreifen ist auf das Eingeständnis von Anthropic zurückzuführen, dass ihr neues Modell, Claude Mythos Preview, erschreckend gut im Hacken ist.
In einem Blogbeitrag , der zusammen mit der Verifizierungsnachricht veröffentlicht wurde, erklärte das Unternehmen, dass Mythos Preview „in der Lage ist, Zero-Day-Schwachstellen in allen wichtigen Betriebssystemen und allen wichtigen Webbrowsern zu identifizieren und auszunutzen, wenn ein Benutzer dies anweist. dent
Die Ingenieure von Anthropic, die keine formale Sicherheitsausbildung hatten, beauftragten Mythos, über Nacht Sicherheitslücken zur Remotecodeausführung aufzuspüren. Laut dem Unternehmen fanden sie am nächsten Morgen einen vollständig funktionsfähigen Exploit vor
Sind die neuen KI-Modelle tatsächlich gefährlich?
Das britische AI Security Institute (AISI) veröffentlichte eine Bewertung, die bestätigt, dass Mythos einen „Schritt nach oben“ in Bezug auf die Cyberfähigkeiten darstellt.
Der interne Blogbeitrag von Anthropic liefert die alarmierendsten Details zu den Fähigkeiten des Modells. Mythos entdeckte nach Erhalt der ersten Aufforderung einen 27 Jahre alten Fehler in OpenBSD, einem für seine Sicherheit bekannten Betriebssystem.
Mythos entdeckte außerdem einen 16 Jahre alten Fehler in FFmpeg, einem Videobearbeitungsprogramm, das von nahezu allen großen Diensten genutzt wird. Das Programm wurde mithilfe einer als Fuzzing bekannten Technik mit Millionen zufälliger Eingaben getestet. Dennoch fand Mythos eine Schwachstelle im H.264-Codec, die auf einen Commit aus dem Jahr 2003 zurückgeht.
Darüber hinaus entdeckte Mythos eine 17 Jahre alte Sicherheitslücke im NFS-Server von FreeBSD und schrieb einen Exploit, der es jedem nicht authentifizierten Benutzer im Internet ermöglicht, vollen Root-Zugriff auf den Server zu erlangen.
Das Unternehmen bestätigte, dass Mythos Preview diese Sicherheitslücke „vollständig autonomdentund anschließend ausgenutzt“ hat. Der gesamte Prozess kostete zum API-Preis unter 2.000 US-Dollar und dauerte weniger als einen Tag.
Mythos entdeckte Sicherheitslücken in allen gängigen Webbrowsern. In einem Fall entwickelte das Unternehmen einen Browser-Exploit, der vier Schwachstellen, darunter einen JIT-Heap-Spray, miteinander verknüpfte, um sowohl die Renderer-Sandbox des Browsers als auch die Sandbox des Betriebssystems zu umgehen.
Anthropic hat „tausende weitere Sicherheitslücken mit hohem und kritischem Schweregrad“ in Open-Source- und proprietärer Software entdeckt. Über 99 % dieser Fehler wurden noch nicht behoben.
OpenAIs Umgang mit Sicherheitsrisiken
Trotz dieser Probleme OpenAI GPT-5.4-Cyber angekündigt , das im Gegensatz zu Standardmodellen, die aus Sicherheitsgründen die Unterstützung beim Hacking verweigern, „die Ablehnungsschwelle für legitime Cybersicherheitsarbeiten senkt“.
GPT-5.4-Cyber kann kompilierte Software ohne Zugriff auf den Quellcode analysieren, um Schadsoftware und Sicherheitslücken aufzudecken. Der Zugriff ist jedoch auf das Programm „Trusted Access for Cyber“ (TAC) von OpenAI beschränkt. Nur geprüfte Cybersicherheitsexperten, Forscher und Organisationen, die kritische Systeme schützen, können es nutzen.
Das Projekt Glasswing von Anthropic ermöglicht es Verteidigern bei Unternehmen wie Amazon ($AMZN), Apple ($AAPL) und Google ($GOOGL), in begrenztem Umfang Zugriff zu erhalten, um kritische Infrastrukturen zu reparieren, bevor Angreifer sie ausnutzen können.
Anthropic empfiehlt in der Zwischenzeit, Sicherheitsupdates sofort und nicht monatlich zu installieren.

