🔥 Erhalten Sie in 90 Tagen einen hochbezahlten Web3-Job. ERFAHREN SIE MEHR

Google, OpenAI und 13 andere verpflichten sich, keine riskanten KI-Modelle einzusetzen

528735
OpenAIGoogle, OpenAI und 13 andere verpflichten sich, keine „unerträglichen“ KI-Modelle einzusetzen

In diesem Beitrag:

  • OpenAI, Microsoft, Google und 13 weitere KI-Unternehmen haben einem neuen KI-Sicherheitsversprechen der britischen Behörden zugestimmt. 
  • Das Versprechen verlangt, dass die Unternehmen die Entwicklung von Modellen einstellen, die als äußerst riskant gelten.
  • Der britische Premierminister sagt, es sei das erste Mal, dass globale KI-Unternehmen sich zu denselben Sicherheitsstandards verpflichten.

Google, OpenAI und Meta haben vereinbart, die Entwicklung von KI-Modellen einzustellen, wenn sie die Risiken nicht eindämmen können. Die Unternehmen haben sich am Dienstag auf dem von Großbritannien und Südkorea ausgerichteten AI Seoul Summit zu den „AI Safety Commitments“ verpflichtet.

Lesen Sie auch: Großbritannien und die Republik Korea arbeiten beim KI-Gipfel zusammen

Es ist eine Weltneuheit, dass so viele führende KI-Unternehmen aus so vielen Teilen der Welt sich alle auf die gleichen Verpflichtungen zur KI-Sicherheit einigen. 

– Der britische Premierminister Rishi Sunak

16 KI-Firmen stimmen KI-Sicherheitsverpflichtungen zu

Dem Bericht zufolge stimmten insgesamt 16 KI-Unternehmen aus den USA, China und dem Nahen Osten dem Sicherheitsversprechen zu.

Auch Microsoft, Amazon, Anthropic, Samsung tron und der chinesische Entwickler Zhipu.ai gehören zu den Unternehmen, die den Sicherheitsstandards zustimmen. 

Lesen Sie auch: Alibaba und Tencent investieren 342 Millionen US-Dollar in das KI-Startup Zhipu

Das KI-Sicherheitsversprechen verpflichtet alle Unternehmen, ihr jeweiliges Sicherheitsrahmenwerk vor einem weiteren KI-Aktionsgipfel Anfang 2025 in Frankreich zu veröffentlichen. Das Rahmenwerk wird erklären, wie die Unternehmen die Risiken ihrer Modelle bestimmen und welche Risiken als „untragbar“ gelten.

KI-Unternehmen werden riskanten KI-Modellen den Garaus machen

In den extremsten Fällen werden die Unternehmen „überhaupt kein Modell oder System entwickeln oder einsetzen“, wenn die Risiken nicht eingedämmt werden können, heißt es in dem Bericht. 

Das wahre Potenzial der KI wird nur dann freigesetzt, wenn wir in der Lage sind, die Risiken zu bewältigen. Es liegt an uns allen, dafür zu sorgen, dass KI sicher entwickelt wird.  

— Michelle Donelan, britische Technologieministerin

Im Juli 2023 unternahm die US-Regierung ähnliche Anstrengungen, um die Risiken und Vorteile von KI anzugehen. dent Joe Biden traf sich mit Google, Microsoft, Meta, OpenAI, Amazon, Anthropic und Inflection, um KI-Schutzmaßnahmen zu besprechen, die sicherstellen, dass ihre KI-Produkte vor der Veröffentlichung sicher sind.

Siehe auch  Meta setzt auf Kernenergie, um seine KI-Rechenzentren mit Strom zu versorgen

KI-Sicherheitsdebatte über OpenAI verschärft sich

Die Diskussion über KI-Sicherheit hat sich in den letzten Monaten intensiviert, insbesondere im Zusammenhang mit AGIs, die darauf abzielen, menschenähnliche allgemeine Intelligenz nachzuahmen. 

Eines der Unternehmen, OpenAI, geriet letzte Woche in den Mittelpunkt dieses Gesprächs, nachdem Mitbegründer Ilya Sutskever und Top-Manager Jan Leike aus dem Unternehmen ausgetreten waren. Das Duo leitete das OpenAI Superalignment-Team, das gegründet wurde, um zu verhindern, dass ihre Modelle abtrünnig werden.  

Lesen Sie auch: Ein weiterer OpenAI-Manager, Jan Leike, gibt auf

In seinem Beitrag sagte Leike, dass „Sicherheitskultur und -prozesse in den letzten Jahren im Unternehmen gegenüber glänzenden Produkten in den Hintergrund gerückt sind“. 

Leike fügte hinzu, dass „OpenAI ein sicherheitsorientiertes AGI-Unternehmen werden muss“ und dass wir uns so gut wie möglich darauf vorbereiten müssen, um sicherzustellen, dass AGI der gesamten Menschheit zugute kommt.


Kryptopolitische Berichterstattung von Ibiam Wayas

Ein Schritt-für-Schritt-System zum Start Ihrer Web3-Karriere und zur Erlangung hochbezahlter Krypto-Jobs in 90 Tagen.

Einen Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir tron dringend unabhängige dent und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie Anlageentscheidungen treffen.

Meist gelesen

Die meisten gelesenen Artikel werden geladen...

Bleiben Sie über Krypto-Neuigkeiten auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang

Wahl des Herausgebers

Editor's Choice-Artikel werden geladen...
Kryptopolitan
Abonnieren Sie CryptoPolitan