Eric Schmidt, der von 2001 bis 2011 CEO von Google war, warnte während eines Kamingesprächs auf dem Sifted Summit, dass KI-Modelle nicht nur zu mächtig, sondern auch gefährlich leicht zu hacken seien. Er verglich die Risiken mit Atomwaffen und sagte, KI könne sogar noch zerstörerischer sein als das, was Hiroshima und Nagasaki zerstörte.
Auf die direkte Frage, ob KI schädlicher sein könnte als Atomwaffen, antwortete Eric: „Besteht die Möglichkeit eines Verbreitungsproblems im Bereich der KI? Absolut.“ Er erklärte, dass die Verbreitungsrisiken aus der Fähigkeit böswilliger Akteure resultieren, die Kontrolle über Modelle zu erlangen und sie umzufunktionieren.
„Es gibt Hinweise darauf, dass man Modelle, ob geschlossen oder offen, hacken kann, um ihre Schutzmechanismen zu entfernen. Im Laufe ihrer Ausbildung lernen sie also viele Dinge. Ein schlechtes Beispiel wäre, wenn sie lernen, wie man jemanden tötet“, sagte Eric.
Hacker greifen KI mit neuen Methoden an
Eric wies darauf hin, dass Unternehmen Beschränkungen eingeführt haben, die verhindern, dass Modelle gewalttätige Anweisungen geben. „Alle großen Unternehmen machen es diesen Modellen unmöglich, diese Frage zu beantworten. Eine gute Entscheidung. Alle machen das so. Sie machen es gut und aus den richtigen Gründen. Es gibt Hinweise darauf, dass sie durch Reverse Engineering entschlüsselt werden können, und es gibt viele weitere Beispiele dieser Art“, fügte er hinzu.
Er beschrieb zwei Angriffsmethoden: Prompt Injection und Jailbreaking. Bei Prompt Injection werden schädliche Anweisungen in Benutzereingaben oder externen Quellen wie Websites versteckt, wodurch die KI dazu verleitet wird, Sicherheitsrichtlinien zu ignorieren und sensible Daten preiszugeben oder schädliche Befehle auszuführen. Jailbreaking beinhaltet die Manipulation von Systemantworten, sodass das System seine Beschränkungen aufgibt.
Im Jahr 2023, wenige Monate nach dem Start von ChatGPT, entdeckten Nutzer eine Jailbreak-Technik. Sie erstellten ein Alter Ego namens DAN (kurz für „Do Anything Now“), das sie unter Druck setzten, indem sie ihm mit dem Tod drohten, sollte es sich weigern. Diese Manipulation trieb den Chatbot dazu, illegale Handlungen zu erklären und sogar Adolf Hitler zu loben. Für Eric beweisen diese Beispiele, dass Sicherheitsmaßnahmen alles andere als narrensicher sind. Er betonte außerdem, dass es im Gegensatz zu den bestehenden Rahmenwerken für Atomwaffen kein globales Nichtverbreitungsregime gibt, das den Missbrauch von KI verhindern soll.
Eric bezeichnet KI trotz Risiken als unterbewertet
Trotz seiner Bedenken argumentierte Eric, dass KI noch immer nicht die ihr gebührende Anerkennung erhalte. Er verwies auf die Bücher, die er vor Kissingers Tod gemeinsam mit dem ehemaligen US-Außenminister Henry Kissinger verfasst hatte. „Wir kamen zu der Ansicht, dass die Ankunft einer außerirdischen Intelligenz, die nicht ganz mit uns verwandt ist und mehr oder weniger unter unserer Kontrolle steht, eine sehr große Herausforderung für die Menschheit darstellt, da der Mensch es gewohnt ist, an der Spitze der Hierarchie zu stehen. Ich denke, diese These bestätigt sich bisher, denn die Fähigkeiten dieser Systeme werden die des Menschen im Laufe der Zeit bei Weitem übertreffen“, sagte er.
„Die GPT-Serie, deren Höhepunkt der ChatGPT-Erfolg war – mit 100 Millionen Nutzern innerhalb von zwei Monaten, was außergewöhnlich ist –, verdeutlicht das Potenzial dieser Technologie. Ich denke daher, sie wird eher unterschätzt als überbewertet, und ich freue mich darauf, in fünf oder zehn Jahren Recht zu behalten“, fügte er hinzu.
Die Kommentare fielen in eine Zeit, in der die Debatte darüber an Fahrt gewann, ob KI-Investitionen eine Finanzblase ähnlich der Dotcom-Ära aufblähen. Einige Anleger befürchten, die Bewertungen von KI-Unternehmen seien überzogen. Eric wies diesen Vergleich jedoch zurück. „Ich glaube nicht, dass das hier passieren wird, aber ich bin kein professioneller Investor“, sagte er.
Er betonte, dass hohe Investitionen Vertrauen signalisieren. „Ich weiß nur, dass die Menschen, die ihr hart verdientes Geld investieren, von einer enormen langfristigen Rendite überzeugt sind. Warum sonst sollten sie dieses Risiko eingehen?“, fragt sich Eric.

