Google, OpenAI und Meta haben vereinbart, die Entwicklung von KI-Modellen einzustellen, wenn sie die Risiken nicht beherrschen können. Die Unternehmen unterzeichneten die „AI Safety Commitments“ am Dienstag auf dem AI Seoul Summit, der von Großbritannien und Südkorea ausgerichtet wurde.
Lesen Sie auch: Großbritannien und Südkorea kooperieren beim KI-Gipfel
Es ist weltweit eine Premiere, dass so viele führende KI-Unternehmen aus so vielen Teilen der Welt den gleichen Verpflichtungen zur KI-Sicherheit zustimmen.
– Der britische Premierminister Rishi Sunak
16 KI-Unternehmen verpflichten sich zu KI-Sicherheitsmaßnahmen
Dem Bericht zufolge haben insgesamt 16 KI-Unternehmen aus den USA, China und dem Nahen Osten die Sicherheitsverpflichtung unterzeichnet.
Zu den Unternehmen, die den Sicherheitsstandards zustimmen, gehören auch Microsoft, Amazon, Anthropic, Samsungtronund der chinesische Entwickler Zhipu.ai.
Lesen Sie auch: Alibaba und Tencent investieren 342 Millionen US-Dollar in das KI-Startup Zhipu
Die KI-Sicherheitsverpflichtung sieht vor, dass alle Unternehmen ihren jeweiligen Sicherheitsrahmen vor dem nächsten KI-Aktionsgipfel Anfang 2025 in Frankreich veröffentlichen. Der Rahmen wird erläutern, wie die Unternehmen die Risiken ihrer Modelle bestimmen und welche Risiken als „untragbar“ gelten
KI-Unternehmen werden riskante KI-Modelle einstellen
Im Extremfall werden die Unternehmen laut Bericht „überhaupt kein Modell oder System entwickeln oder einsetzen“, wenn die Risiken nicht eingedämmt werden können.
Das wahre Potenzial der KI kann nur dann ausgeschöpft werden, wenn wir die Risiken beherrschen. Es liegt in unserer aller Verantwortung, eine sichere Entwicklung der KI zu gewährleisten.
— Michelle Donelan, britische Technologieministerin
Im Juli 2023 unternahm die US-Regierung ähnliche Anstrengungen, um die Risiken und Vorteile von KI zu erörtern.dent Joe Biden traf sich mit Vertretern von Google, Microsoft, Meta, OpenAI, Amazon, Anthropic und Inflection, um über Sicherheitsvorkehrungen für KI zu sprechen, die die Sicherheit ihrer KI-Produkte vor deren Veröffentlichung gewährleisten sollen.
Die Debatte um die Sicherheit von KI im Zusammenhang mit OpenAI spitzt sich zu
Die Debatte um die Sicherheit von KI hat sich in den letzten Monaten verstärkt, insbesondere im Hinblick auf AGIs, die darauf abzielen, eine menschenähnliche allgemeine Intelligenz nachzuahmen.
Eines der Unternehmen, OpenAI, geriet letzte Woche in den Mittelpunkt dieser Diskussion, nachdem Mitgründer Ilya Sutskever und Topmanager Jan Leike das Unternehmen verlassen hatten. Die beiden leiteten das OpenAI-Superalignment-Team, das eingerichtet worden war, um zu verhindern, dass die Modelle außer Kontrolle geraten.
Lesen Sie auch: Ein weiterer OpenAI-Manager, Jan Leike, verlässt das Unternehmen.
In seinem Beitrag erklärte Leike, dass „in den vergangenen Jahren die Sicherheitskultur und -prozesse im Unternehmen hinter glänzenden Produkten zurückstehen mussten“.
Es ist längst überfällig, die Auswirkungen von AGI ernsthaft zu beleuchten.
— Jan Leike (@janleike) 17. Mai 2024
Wir müssen der Vorbereitung darauf höchste Priorität einräumen.
Nur so können wir sicherstellen, dass AGI der gesamten Menschheit zugutekommt.
Leike fügte hinzu, dass „OpenAI zu einem Unternehmen werden muss, bei dem Sicherheit bei AGI an erster Stelle steht“ und dass wir uns bestmöglich darauf vorbereiten müssen, um sicherzustellen, dass AGI der gesamten Menschheit zugutekommt.
Cryptopolitan Berichterstattung von Ibiam Wayas

