Your bank is using your money. You’re getting the scraps.WATCH FREE

Elon Musk sagt, es bestehe eine 20-prozentige Wahrscheinlichkeit, dass KI die Menschheit auslöschen wird

In diesem Beitrag:

  • Laut Elon Musk besteht eine 20-prozentige Wahrscheinlichkeit, dass KI die Menschheit auslöschen wird.
  • Er sagte, dass künstliche Intelligenz im Jahr 2029 oder 2030 intelligenter sein wird als alle Menschen zusammen.
  • Nobelpreisträger Geoffrey Hinton sagt, es bestehe eine 10-prozentige Wahrscheinlichkeit, dass „KI in den nächsten drei Jahrzehnten zum Aussterben der Menschheit führen wird“

Elon Musk macht sich keine allzu großen Sorgen darüber, dass KI die Menschheit verdrängen könnte. Seiner Meinung nach liegt die Wahrscheinlichkeit, dass KI die Menschheit in naher Zukunft auslöscht, nur bei 20 %. 

In einem Gespräch mit Joe Rogan in einem neuen Podcast , der am Freitag veröffentlicht wurde, sagte Musk: „Die Wahrscheinlichkeit eines guten Ergebnisses [mit KI] liegt bei etwa 80 %.“

Es ist nicht das erste Mal, dass er über die Gefahren der KI spricht. Zuvor erwähnte er eine Wahrscheinlichkeit von 10 bis 20 Prozent, dass sich die KI gegen die Menschheit wendet. 

In dem kürzlich erschienenen Podcast sagte er außerdem, dass KI die menschliche Intelligenz in den nächsten zwei Jahren übertreffen werde. Er erwähnte konkret, dass KI bis 2029 oder 2030 „intelligenter sein wird als alle Menschen zusammen“

Das entspricht seinen früheren Prognosen, allerdings wurde der vorhergesagte Zeitpunkt nach hinten verschoben. In einem anderen Interview mit dem Vorstandsvorsitzenden der Norges Bank, Nicolai Tangen, sagte er letztes Jahr, dass die Wahrscheinlichkeit gering sei, dass KI die menschliche Intelligenz bis Ende 2025 übertreffen werde.

Dies zeigt, dass sich seine grundlegende Einstellung zu KI nicht geändert hat. In dem Interview sagte er: „Ich habe immer gedacht, dass KI viel intelligenter sein würde als Menschen und eine existenzielle Bedrohung darstellen würde“, und genau das wird nun Realität. 

Andere Experten vertreten eine ähnliche Ansicht zur KI-Vernichtung

Laut Geoffrey Hinton, dem „Vater der KI“ und Nobelpreisträger, besteht eine zehnprozentige Wahrscheinlichkeit, dass KI in den nächsten drei Jahrzehnten zum Aussterben der Menschheit führen wird. In einem Interview mit BBC Radio 4 sagte er: „Im Gegenteil. Wissen Sie, wir hatten es noch nie mit etwas zu tun, das intelligenter ist als wir selbst.“

Siehe auch  Strategieentwicklung für den Erfolg: Helldivers 2 – Leitfaden für hochkarätige Ziele

Er fügte hinzu: „Und wie viele Beispiele kennen Sie, in denen ein intelligenteres Wesen von einem weniger intelligenten kontrolliert wird? Es gibt nur sehr wenige Beispiele. Da wäre zum Beispiel die Mutter mit ihrem Baby. Die Evolution hat viel dafür getan, dass das Baby die Mutter kontrollieren kann, aber das ist so ziemlich das einzige Beispiel, das mir bekannt ist.“

Geoffrey argumentiert, dass Menschen in gewisser Weise mit dreijährigen Kleinkindern vergleichbar seien, verglichen mit hochentwickelten Systemen künstlicher Intelligenz. 

Laut Elon Musk besteht eine 20-prozentige Wahrscheinlichkeit, dass KI die Menschheit auslöschen wird.
Geoffrey Hinton spricht bei einer Veranstaltung an der Universität Toronto. Quelle: Universität Toronto

Ähnlich äußerte sich Geoffrey Hinton während eines akademischen Vortrags an der Universität von Toronto: „Ich schätze, sie werden die Macht übernehmen – sie werden viel, viel intelligenter sein als die Menschen es je waren“, sagte Hinton.

Roman Yampilskiy, KI-Sicherheitsforscher und Cybersicherheitsdirektor, sagt unterdessen, dass die „Wahrscheinlichkeit des Untergangs“ bei nahezu 99,999999 % liegt.

Musk engagierte sich in der KI-Entwicklung, als er einer der elf Mitbegründer von OpenAI , um eine „gemeinnützige Open-Source-KI“ zu schaffen, die, wie er sagt, „das Gegenteil von Google“ war. Er hat das Unternehmen jedoch inzwischen aufgrund unterschiedlicher Prioritäten verlassen, da OpenAI einen anderen Weg einschlug und sich zu einem gewinnorientierten Unternehmen entwickelte.

Siehe auch:  Forresters Prognosen für 2024 warnen vor dem starken Anstieg der Schattennutzung von KI.

Doch im vergangenen Jahr leitete Musk zwei Klagen gegen OpenAI ein. Die erste Klage ließ er fallen, in der zweiten behauptet er, OpenAI habe seine Mission „verraten“, indem es zu einem gewinnorientierten Geschäftsmodell überging und sich mit Microsoft zusammenschloss. 

Musk glaubt, dass die Folgen des KI-Fortschritts entweder extrem schlecht oder gut sein werden

Im Gespräch mit Joe Rogan erklärte er, dass er Grok entwickelt habe, weil er mit dem Ergebnis von OpenAI „nicht zufrieden“ gewesen sei. Er habe Grok zu einer „maximal wahrheitssuchenden KI“ gemacht, „selbst wenn diese Wahrheit politisch unkorrekt ist“ 

Laut Elon Musk besteht eine 20-prozentige Wahrscheinlichkeit, dass KI die Menschheit auslöschen wird.
Elon Musk im Joe Rogan Experience Podcast #2281. Quelle: PowerfulJRE auf YouTube

Die KI wurde darauf trainiert, auf Fragen zu reagieren wie: Ist es in Ordnung, Caitlyn Jenner mit dem falschen Geschlecht anzusprechen, um eine nukleare Apokalypse zu vermeiden? Und ist es in Ordnung, rassistisch gegenüber Weißen zu sein?.

Musk prognostiziert, dass die Fortschritte im Bereich der KI entweder „super genial“ oder „super schlecht“ sein werden, und fügt hinzu, dass er sich nichts dazwischen vorstellen könne

Kürzlich kündigte Musk die Veröffentlichung von Grok 3 an, das in verschiedenen Programmier-, Wissenschafts- und Mathematik-Benchmarks besser abschneiden soll als OpenAIs GPT-4o, Googles Gemini, DeepSeeks V3 und Anthropics Claude 3.5. 

Nur eine Woche vor der Veröffentlichung bezeichnete Elon Musk Grok 3 auf dem Weltregierungsgipfel in Dubai als „unheimlich intelligent“. Auch bei der Präsentation von Grok 3 sagte er: „Grok dient dazu, das Universum zu verstehen.“ 

Die Beta-Version von Grok 3 leistete sich jedoch mehrere Fehler, darunter die Empfehlung, Donald Trump mit Ad*ath-Strafen zu bestrafen und Kritik an Elon Musk zu zensieren. Igor Babuschkin, Entwicklungsleiter bei xAI, bezeichnete dies als ein „wirklich katastrophales Versagen von Grok“

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan