Your bank is using your money. You’re getting the scraps.WATCH FREE

Google, OpenAI und 13 weitere Unternehmen verpflichten sich, keine riskanten KI-Modelle einzusetzen

In diesem Beitrag:

  • OpenAI, Microsoft, Google und 13 weitere KI-Unternehmen haben einer neuen Sicherheitsverpflichtung für KI durch die britischen Behörden zugestimmt. 
  • Die Verpflichtung sieht vor, dass die Unternehmen die Entwicklung aller Modelle einstellen, die als extrem riskant eingestuft werden.
  • Der britische Premierminister sagt, es sei das erste Mal, dass sich globale KI-Unternehmen zu demselben Sicherheitsstandard verpflichten.

Google, OpenAI und Meta haben vereinbart, die Entwicklung von KI-Modellen einzustellen, wenn sie die Risiken nicht beherrschen können. Die Unternehmen unterzeichneten die „AI Safety Commitments“ am Dienstag auf dem AI Seoul Summit, der von Großbritannien und Südkorea ausgerichtet wurde.

Lesen Sie auch: Großbritannien und Südkorea kooperieren beim KI-Gipfel

Es ist weltweit eine Premiere, dass so viele führende KI-Unternehmen aus so vielen Teilen der Welt den gleichen Verpflichtungen zur KI-Sicherheit zustimmen. 

– Der britische Premierminister Rishi Sunak

16 KI-Unternehmen verpflichten sich zu KI-Sicherheitsmaßnahmen

Dem Bericht zufolge haben insgesamt 16 KI-Unternehmen aus den USA, China und dem Nahen Osten die Sicherheitsverpflichtung unterzeichnet.

Zu den Unternehmen, die den Sicherheitsstandards zustimmen, gehören auch Microsoft, Amazon, Anthropic, Samsungtronund der chinesische Entwickler Zhipu.ai. 

Lesen Sie auch: Alibaba und Tencent investieren 342 Millionen US-Dollar in das KI-Startup Zhipu

Die KI-Sicherheitsverpflichtung sieht vor, dass alle Unternehmen ihren jeweiligen Sicherheitsrahmen vor dem nächsten KI-Aktionsgipfel Anfang 2025 in Frankreich veröffentlichen. Der Rahmen wird erläutern, wie die Unternehmen die Risiken ihrer Modelle bestimmen und welche Risiken als „untragbar“ gelten

KI-Unternehmen werden riskante KI-Modelle einstellen

Im Extremfall werden die Unternehmen laut Bericht „überhaupt kein Modell oder System entwickeln oder einsetzen“, wenn die Risiken nicht eingedämmt werden können. 

Das wahre Potenzial der KI kann nur dann ausgeschöpft werden, wenn wir die Risiken beherrschen. Es liegt in unserer aller Verantwortung, eine sichere Entwicklung der KI zu gewährleisten. 

— Michelle Donelan, britische Technologieministerin

Im Juli 2023 unternahm die US-Regierung ähnliche Anstrengungen, um die Risiken und Vorteile von KI zu erörtern.dent Joe Biden traf sich mit Vertretern von Google, Microsoft, Meta, OpenAI, Amazon, Anthropic und Inflection, um über Sicherheitsvorkehrungen für KI zu sprechen, die die Sicherheit ihrer KI-Produkte vor deren Veröffentlichung gewährleisten sollen.

Siehe auch:  Die Auswirkungen von KI auf die BRICS-Volkswirtschaften: Chancen und Herausforderungen

Die Debatte um die Sicherheit von KI im Zusammenhang mit OpenAI spitzt sich zu

Die Debatte um die Sicherheit von KI hat sich in den letzten Monaten verstärkt, insbesondere im Hinblick auf AGIs, die darauf abzielen, eine menschenähnliche allgemeine Intelligenz nachzuahmen. 

Eines der Unternehmen, OpenAI, geriet letzte Woche in den Mittelpunkt dieser Diskussion, nachdem Mitgründer Ilya Sutskever und Topmanager Jan Leike das Unternehmen verlassen hatten. Die beiden leiteten das OpenAI-Superalignment-Team, das eingerichtet worden war, um zu verhindern, dass die Modelle außer Kontrolle geraten. 

Lesen Sie auch: Ein weiterer OpenAI-Manager, Jan Leike, verlässt das Unternehmen.

In seinem Beitrag erklärte Leike, dass „in den vergangenen Jahren die Sicherheitskultur und -prozesse im Unternehmen hinter glänzenden Produkten zurückstehen mussten“. 

Leike fügte hinzu, dass „OpenAI zu einem Unternehmen werden muss, bei dem Sicherheit bei AGI an erster Stelle steht“ und dass wir uns bestmöglich darauf vorbereiten müssen, um sicherzustellen, dass AGI der gesamten Menschheit zugutekommt.


Cryptopolitan Berichterstattung von Ibiam Wayas

Überlassen Sie das Beste immer noch der Bank? Sehen Sie sich unser kostenloses Video zum Thema „ Ihre eigene Bank sein“ .

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführen tron / oder einen qualifizierten Fachmann zu konsultieren dent

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan