Your bank is using your money. You’re getting the scraps.WATCH FREE

Googles ehemaliger CEO Eric Schmidt sagt, KI-Modelle würden irgendwann lernen zu töten

In diesem Beitrag:

  • Eric Schmidt warnte auf dem Sifted Summit davor, dass KI gehackt werden und schließlich lernen könnte zu töten.
  • Er sagte, dass Modelle durch Methoden wie Prompt Injection und Jailbreaking rückwärts entwickelt werden können.
  • Eric erinnerte sich an den ChatGPT-Jailbreak von 2023, der das Alter Ego DAN hervorbrachte, welches gefährliche Antworten gab.

Eric Schmidt, der von 2001 bis 2011 CEO von Google war, warnte während eines Kamingesprächs auf dem Sifted Summit, dass KI-Modelle nicht nur zu mächtig, sondern auch gefährlich leicht zu hacken seien. Er verglich die Risiken mit Atomwaffen und sagte, KI könne sogar noch zerstörerischer sein als das, was Hiroshima und Nagasaki zerstörte.

Auf die direkte Frage, ob KI schädlicher sein könnte als Atomwaffen, antwortete Eric: „Besteht die Möglichkeit eines Verbreitungsproblems im Bereich der KI? Absolut.“ Er erklärte, dass die Verbreitungsrisiken aus der Fähigkeit böswilliger Akteure resultieren, die Kontrolle über Modelle zu erlangen und sie umzufunktionieren.

„Es gibt Hinweise darauf, dass man Modelle, ob geschlossen oder offen, hacken kann, um ihre Schutzmechanismen zu entfernen. Im Laufe ihrer Ausbildung lernen sie also viele Dinge. Ein schlechtes Beispiel wäre, wenn sie lernen, wie man jemanden tötet“, sagte Eric.

Hacker greifen KI mit neuen Methoden an

Eric wies darauf hin, dass Unternehmen Beschränkungen eingeführt haben, die verhindern, dass Modelle gewalttätige Anweisungen geben. „Alle großen Unternehmen machen es diesen Modellen unmöglich, diese Frage zu beantworten. Eine gute Entscheidung. Alle machen das so. Sie machen es gut und aus den richtigen Gründen. Es gibt Hinweise darauf, dass sie durch Reverse Engineering entschlüsselt werden können, und es gibt viele weitere Beispiele dieser Art“, fügte er hinzu.

Siehe auch:  Regisseur von „The Marvels“ erhielt nach der Vorführung eine seltsame Nachricht

Er beschrieb zwei Angriffsmethoden: Prompt Injection und Jailbreaking. Bei Prompt Injection werden schädliche Anweisungen in Benutzereingaben oder externen Quellen wie Websites versteckt, wodurch die KI dazu verleitet wird, Sicherheitsrichtlinien zu ignorieren und sensible Daten preiszugeben oder schädliche Befehle auszuführen. Jailbreaking beinhaltet die Manipulation von Systemantworten, sodass das System seine Beschränkungen aufgibt.

Im Jahr 2023, wenige Monate nach dem Start von ChatGPT, entdeckten Nutzer eine Jailbreak-Technik. Sie erstellten ein Alter Ego namens DAN (kurz für „Do Anything Now“), das sie unter Druck setzten, indem sie ihm mit dem Tod drohten, sollte es sich weigern. Diese Manipulation trieb den Chatbot dazu, illegale Handlungen zu erklären und sogar Adolf Hitler zu loben. Für Eric beweisen diese Beispiele, dass Sicherheitsmaßnahmen alles andere als narrensicher sind. Er betonte außerdem, dass es im Gegensatz zu den bestehenden Rahmenwerken für Atomwaffen kein globales Nichtverbreitungsregime gibt, das den Missbrauch von KI verhindern soll.

Eric bezeichnet KI trotz Risiken als unterbewertet

Trotz seiner Bedenken argumentierte Eric, dass KI noch immer nicht die ihr gebührende Anerkennung erhalte. Er verwies auf die Bücher, die er vor Kissingers Tod gemeinsam mit dem ehemaligen US-Außenminister Henry Kissinger verfasst hatte. „Wir kamen zu der Ansicht, dass die Ankunft einer außerirdischen Intelligenz, die nicht ganz mit uns verwandt ist und mehr oder weniger unter unserer Kontrolle steht, eine sehr große Herausforderung für die Menschheit darstellt, da der Mensch es gewohnt ist, an der Spitze der Hierarchie zu stehen. Ich denke, diese These bestätigt sich bisher, denn die Fähigkeiten dieser Systeme werden die des Menschen im Laufe der Zeit bei Weitem übertreffen“, sagte er.

Siehe auch:  OpenAI begrüßt neue Führung inmitten strategischer Partnerschaften und KI-Fortschritte

„Die GPT-Serie, deren Höhepunkt der ChatGPT-Erfolg war – mit 100 Millionen Nutzern innerhalb von zwei Monaten, was außergewöhnlich ist –, verdeutlicht das Potenzial dieser Technologie. Ich denke daher, sie wird eher unterschätzt als überbewertet, und ich freue mich darauf, in fünf oder zehn Jahren Recht zu behalten“, fügte er hinzu.

Die Kommentare fielen in eine Zeit, in der die Debatte darüber an Fahrt gewann, ob KI-Investitionen eine Finanzblase ähnlich der Dotcom-Ära aufblähen. Einige Anleger befürchten, die Bewertungen von KI-Unternehmen seien überzogen. Eric wies diesen Vergleich jedoch zurück. „Ich glaube nicht, dass das hier passieren wird, aber ich bin kein professioneller Investor“, sagte er.

Er betonte, dass hohe Investitionen Vertrauen signalisieren. „Ich weiß nur, dass die Menschen, die ihr hart verdientes Geld investieren, von einer enormen langfristigen Rendite überzeugt sind. Warum sonst sollten sie dieses Risiko eingehen?“, fragt sich Eric.

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an.

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan