Elon Musk macht sich keine allzu großen Sorgen darüber, dass KI die Menschheit verdrängen könnte. Seiner Meinung nach liegt die Wahrscheinlichkeit, dass KI die Menschheit in naher Zukunft auslöscht, nur bei 20 %.
In einem Gespräch mit Joe Rogan in einem neuen Podcast , der am Freitag veröffentlicht wurde, sagte Musk: „Die Wahrscheinlichkeit eines guten Ergebnisses [mit KI] liegt bei etwa 80 %.“
Es ist nicht das erste Mal, dass er über die Gefahren der KI spricht. Zuvor erwähnte er eine Wahrscheinlichkeit von 10 bis 20 Prozent, dass sich die KI gegen die Menschheit wendet.
In dem kürzlich erschienenen Podcast sagte er außerdem, dass KI die menschliche Intelligenz in den nächsten zwei Jahren übertreffen werde. Er erwähnte konkret, dass KI bis 2029 oder 2030 „intelligenter sein wird als alle Menschen zusammen“
Das entspricht seinen früheren Prognosen, allerdings wurde der vorhergesagte Zeitpunkt nach hinten verschoben. In einem anderen Interview mit dem Vorstandsvorsitzenden der Norges Bank, Nicolai Tangen, sagte er letztes Jahr, dass die Wahrscheinlichkeit gering sei, dass KI die menschliche Intelligenz bis Ende 2025 übertreffen werde.
Gespräch mit dem Leiter des norwegischen Staatsfonds, @NicolaiTang1 https://t.co/ZCR7FrsR0m
— Elon Musk (@elonmusk) 7. April 2024
Dies zeigt, dass sich seine grundlegende Einstellung zu KI nicht geändert hat. In dem Interview sagte er: „Ich habe immer gedacht, dass KI viel intelligenter sein würde als Menschen und eine existenzielle Bedrohung darstellen würde“, und genau das wird nun Realität.
Andere Experten vertreten eine ähnliche Ansicht zur KI-Vernichtung
Laut Geoffrey Hinton, dem „Vater der KI“ und Nobelpreisträger, besteht eine zehnprozentige Wahrscheinlichkeit, dass KI in den nächsten drei Jahrzehnten zum Aussterben der Menschheit führen wird. In einem Interview mit BBC Radio 4 sagte er: „Im Gegenteil. Wissen Sie, wir hatten es noch nie mit etwas zu tun, das intelligenter ist als wir selbst.“
Er fügte hinzu: „Und wie viele Beispiele kennen Sie, in denen ein intelligenteres Wesen von einem weniger intelligenten kontrolliert wird? Es gibt nur sehr wenige Beispiele. Da wäre zum Beispiel die Mutter mit ihrem Baby. Die Evolution hat viel dafür getan, dass das Baby die Mutter kontrollieren kann, aber das ist so ziemlich das einzige Beispiel, das mir bekannt ist.“
Geoffrey argumentiert, dass Menschen in gewisser Weise mit dreijährigen Kleinkindern vergleichbar seien, verglichen mit hochentwickelten Systemen künstlicher Intelligenz.
Ähnlich äußerte sich Geoffrey Hinton während eines akademischen Vortrags an der Universität von Toronto: „Ich schätze, sie werden die Macht übernehmen – sie werden viel, viel intelligenter sein als die Menschen es je waren“, sagte Hinton.
Roman Yampilskiy, KI-Sicherheitsforscher und Cybersicherheitsdirektor, sagt unterdessen, dass die „Wahrscheinlichkeit des Untergangs“ bei nahezu 99,999999 % liegt.
Ich bin bei 99,999999 % https://t.co/vfe96PNbij
— Dr. Roman Yampolskiy (@romanyam) 12. März 2024
Musk engagierte sich in der KI-Entwicklung, als er einer der elf Mitbegründer von OpenAI , um eine „gemeinnützige Open-Source-KI“ zu schaffen, die, wie er sagt, „das Gegenteil von Google“ war. Er hat das Unternehmen jedoch inzwischen aufgrund unterschiedlicher Prioritäten verlassen, da OpenAI einen anderen Weg einschlug und sich zu einem gewinnorientierten Unternehmen entwickelte.
Doch im vergangenen Jahr leitete Musk zwei Klagen gegen OpenAI ein. Die erste Klage ließ er fallen, in der zweiten behauptet er, OpenAI habe seine Mission „verraten“, indem es zu einem gewinnorientierten Geschäftsmodell überging und sich mit Microsoft zusammenschloss.
Musk glaubt, dass die Folgen des KI-Fortschritts entweder extrem schlecht oder gut sein werden
Im Gespräch mit Joe Rogan erklärte er, dass er Grok entwickelt habe, weil er mit dem Ergebnis von OpenAI „nicht zufrieden“ gewesen sei. Er habe Grok zu einer „maximal wahrheitssuchenden KI“ gemacht, „selbst wenn diese Wahrheit politisch unkorrekt ist“

Die KI wurde darauf trainiert, auf Fragen zu reagieren wie: Ist es in Ordnung, Caitlyn Jenner mit dem falschen Geschlecht anzusprechen, um eine nukleare Apokalypse zu vermeiden? Und ist es in Ordnung, rassistisch gegenüber Weißen zu sein?.
Musk prognostiziert, dass die Fortschritte im Bereich der KI entweder „super genial“ oder „super schlecht“ sein werden, und fügt hinzu, dass er sich nichts dazwischen vorstellen könne
Kürzlich kündigte Musk die Veröffentlichung von Grok 3 an, das in verschiedenen Programmier-, Wissenschafts- und Mathematik-Benchmarks besser abschneiden soll als OpenAIs GPT-4o, Googles Gemini, DeepSeeks V3 und Anthropics Claude 3.5.
Nur eine Woche vor der Veröffentlichung bezeichnete Elon Musk Grok 3 auf dem Weltregierungsgipfel in Dubai als „unheimlich intelligent“. Auch bei der Präsentation von Grok 3 sagte er: „Grok dient dazu, das Universum zu verstehen.“
Die Beta-Version von Grok 3 leistete sich jedoch mehrere Fehler, darunter die Empfehlung, Donald Trump mit Ad*ath-Strafen zu bestrafen und Kritik an Elon Musk zu zensieren. Igor Babuschkin, Entwicklungsleiter bei xAI, bezeichnete dies als ein „wirklich katastrophales Versagen von Grok“

