NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Mitarbeiter behaupten, OpenAI und Google DeepMind würden KI-Risiken verschweigen 

VonJeffrey GogoJeffrey Gogo
Lesezeit: 2 Minuten
KI
  • Ehemalige Mitarbeiter werfen KI-Firmen vor, Risiken zu verschweigen, die zum Aussterben der Menschheit führen könnten.
  • Man sagt, Unternehmen stellten den Profit an erste Stelle und vermieden dabei eine „wirksame Aufsicht“
  • Whistleblower werden durch die Angst vor Vergeltungsmaßnahmen seitens ihrer Arbeitgeber abgeschreckt.

Mehrere aktuelle und ehemalige Mitarbeiter von OpenAI und Google DeepMind warfen ihren Unternehmen vor, KI-Risiken zu verschweigen, die potenziell zum Aussterben der Menschheit führen könnten. In einem offenen Brief behaupteten die Betroffenen, KI-Firmen stellten den Profit in den Vordergrund und vermieden eine wirksame staatliche Aufsicht

Lesen Sie auch: OpenAI entwickelt Nachfolger für GPT-4 trotz Sicherheitsbedenken

Der offene Brief wurde von elf ehemaligen Mitarbeitern von OpenAI und zwei Mitarbeitern von Google DeepMind unterzeichnet und von Geoffrey Hinton, und ebenfalls ehemaligen Google-Mitarbeiter, unterstützt. Darin heißt es, Gewinnstreben und regulatorische Schlupflöcher ermöglichten es Unternehmen, die von fortschrittlicher künstlicher Intelligenz ausgehenden Bedrohungen zu vertuschen.

KI könnte zum Aussterben der Menschheit führen

Dem Schreiben zufolge haben KI-Firmen wie OpenAI und Google DeepMind, der Entwickler von Gemini, keine Informationen über die unzureichenden Sicherheitsvorkehrungen und Risikostufen ihrer Systeme öffentlich gemacht, da sie dazu nicht verpflichtet sind.

Ohne behördliche Aufsicht könnten die KI-Programme der Menschheit erheblichen Schaden zufügen. Die Mitarbeiter warnten:

„Diese Risiken reichen von der weiteren Verfestigung bestehender Ungleichheiten… bis hin zum Kontrollverlust über autonome KI-Systeme, der potenziell zum Aussterben der Menschheit führen könnte.“

Wie die Unterzeichner des Briefes feststellten, haben KI-Unternehmen diese Risiken selbst anerkannt. Im Mai 2023 unterzeichneten die CEOs von OpenAI, Anthropic und Google DeepMind gemeinsam einen offenen Brief des Center for AI Safety. Darin hieß es schlicht: „Die Minderung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen eine globale Priorität sein.“

KI-Unternehmen geraten zunehmend in die Kritik , weil sie innovative Produkte und Gewinnmaximierung über Sicherheit stellen. ChatGPT,nahm die in dem Schreiben geäußerten Bedenken zur Kenntnis und erklärte, man arbeite an der Entwicklung sicherer künstlicher Intelligenz.

„Wir sind stolz auf unsere tracbei der Bereitstellung der leistungsfähigsten und sichersten KI-Systeme und glauben an unseren wissenschaftlichen Ansatz zur Risikobewältigung“, sagte OpenAI-Sprecherin Lindsey Held gegenüber der New York Times.

„Wir sind uns einig, dass angesichts der Bedeutung dieser Technologie eine intensive Debatte unerlässlich ist, und wir werden uns weiterhin mit Regierungen, der Zivilgesellschaft und anderen Gemeinschaften auf der ganzen Welt austauschen.“

KI

Whistleblower fürchten Vergeltungsmaßnahmen

Die ehemaligen Mitarbeiter von OpenAI und Google erklärten, sie würden gerne die Aufsichtsfunktion übernehmen, während die Regulierungsbehörden Gesetze ausarbeiten, die KI-Entwickler dazu verpflichten, mehr Informationen über ihre Programme öffentlich preiszugeben.

dentund die Angst vor Vergeltungsmaßnahmen seitens der Arbeitgeber halten Arbeitnehmer jedoch davon ab, ihre Bedenken öffentlich zu äußern. Aus dem Schreiben geht hervor:

„Angesichts der Geschichte ähnlicher Fälle in der Branche befürchten einige von uns berechtigterweise verschiedene Formen von Vergeltungsmaßnahmen. Wir sind nicht die Ersten, die mit diesen Problemen konfrontiert werden oder darüber sprechen.“

Whistleblower sind in den USA gesetzlich geschützt, doch diejenigen, die vor den Gefahren künstlicher Intelligenz warnen, sind nicht geschützt, da diese Technologie noch nicht reguliert ist.

Lesen Sie auch: ChatGPT verbreitet weiterhin Falschinformationen, sagt die EU-Datenschutzbehörde.

In dem Schreiben wurden KI-Unternehmen aufgefordert, nachweislich anonymes Feedback zu ermöglichen, eine Kultur der offenen Kritik zu unterstützen und Whistleblower nicht zu bestrafen.

Der KI-Forscher Lance B. Eliot erklärte, Unternehmen würden bei Kritik auf Belohnung und Bestrafung setzen. Mitarbeiter, die Risiken nicht ansprechen, würden mit Beförderungen und Gehaltserhöhungen belohnt.

Auf der anderen Seite verlieren Whistleblower und Kritiker ihre Aktienoptionen und werden möglicherweise aus dem Unternehmen gedrängt und von der KI-Führungsebene stillschweigend auf eine schwarze Liste gesetzt.


Cryptopolitan -Bericht von Jeffrey Gogo

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS