Google, OpenAI und Meta haben vereinbart, die Entwicklung von KI-Modellen einzustellen, wenn sie die Risiken nicht eindämmen können. Die Unternehmen haben sich am Dienstag auf dem von Großbritannien und Südkorea ausgerichteten AI Seoul Summit zu den „AI Safety Commitments“ verpflichtet.
Lesen Sie auch: Großbritannien und die Republik Korea arbeiten beim KI-Gipfel zusammen
Es ist eine Weltneuheit, dass so viele führende KI-Unternehmen aus so vielen Teilen der Welt sich alle auf die gleichen Verpflichtungen zur KI-Sicherheit einigen.
– Der britische Premierminister Rishi Sunak
16 KI-Firmen stimmen KI-Sicherheitsverpflichtungen zu
Dem Bericht zufolge stimmten insgesamt 16 KI-Unternehmen aus den USA, China und dem Nahen Osten dem Sicherheitsversprechen zu.
Auch Microsoft, Amazon, Anthropic, Samsung tron und der chinesische Entwickler Zhipu.ai gehören zu den Unternehmen, die den Sicherheitsstandards zustimmen.
Lesen Sie auch: Alibaba und Tencent investieren 342 Millionen US-Dollar in das KI-Startup Zhipu
Das KI-Sicherheitsversprechen verpflichtet alle Unternehmen, ihr jeweiliges Sicherheitsrahmenwerk vor einem weiteren KI-Aktionsgipfel Anfang 2025 in Frankreich zu veröffentlichen. Das Rahmenwerk wird erklären, wie die Unternehmen die Risiken ihrer Modelle bestimmen und welche Risiken als „untragbar“ gelten.
KI-Unternehmen werden riskanten KI-Modellen den Garaus machen
In den extremsten Fällen werden die Unternehmen „überhaupt kein Modell oder System entwickeln oder einsetzen“, wenn die Risiken nicht eingedämmt werden können, heißt es in dem Bericht.
Das wahre Potenzial der KI wird nur dann freigesetzt, wenn wir in der Lage sind, die Risiken zu bewältigen. Es liegt an uns allen, dafür zu sorgen, dass KI sicher entwickelt wird.
— Michelle Donelan, britische Technologieministerin
Im Juli 2023 unternahm die US-Regierung ähnliche Anstrengungen, um die Risiken und Vorteile von KI anzugehen. dent Joe Biden traf sich mit Google, Microsoft, Meta, OpenAI, Amazon, Anthropic und Inflection, um KI-Schutzmaßnahmen zu besprechen, die sicherstellen, dass ihre KI-Produkte vor der Veröffentlichung sicher sind.
KI-Sicherheitsdebatte über OpenAI verschärft sich
Die Diskussion über KI-Sicherheit hat sich in den letzten Monaten intensiviert, insbesondere im Zusammenhang mit AGIs, die darauf abzielen, menschenähnliche allgemeine Intelligenz nachzuahmen.
Eines der Unternehmen, OpenAI, geriet letzte Woche in den Mittelpunkt dieses Gesprächs, nachdem Mitbegründer Ilya Sutskever und Top-Manager Jan Leike aus dem Unternehmen ausgetreten waren. Das Duo leitete das OpenAI Superalignment-Team, das gegründet wurde, um zu verhindern, dass ihre Modelle abtrünnig werden.
Lesen Sie auch: Ein weiterer OpenAI-Manager, Jan Leike, gibt auf
In seinem Beitrag sagte Leike, dass „Sicherheitskultur und -prozesse in den letzten Jahren im Unternehmen gegenüber glänzenden Produkten in den Hintergrund gerückt sind“.
Leike fügte hinzu, dass „OpenAI ein sicherheitsorientiertes AGI-Unternehmen werden muss“ und dass wir uns so gut wie möglich darauf vorbereiten müssen, um sicherzustellen, dass AGI der gesamten Menschheit zugute kommt.
Kryptopolitische Berichterstattung von Ibiam Wayas
Ein Schritt-für-Schritt-System zum Start Ihrer Web3-Karriere und zur Erlangung hochbezahlter Krypto-Jobs in 90 Tagen.