A Elon Musk no le preocupa demasiado que la IA supere a los humanos. Según él, solo hay un 20 % de probabilidades de que la IA aniquile a los humanos en un futuro próximo.
En una conversación con Joe Rogan en un nuevo podcast publicado el viernes, Musk dijo: "La probabilidad de un buen resultado [con la IA] es de alrededor del 80 %".
No es la primera vez que habla de los peligros de la IA. Anteriormente, mencionó entre un 10% y un 20% de probabilidades de que la IA se vuelva contra los humanos.
En el podcast reciente, también afirmó que en los próximos dos años, la IA superará la inteligencia humana. Mencionó específicamente que para 2029 o 2030, la IA será "más inteligente que todos los humanos juntos"
Esto coincide con sus predicciones anteriores, pero el plazo previsto se ha ampliado aún más. El año pasado, en otra entrevista con el director ejecutivo del Norges Bank, Nicolai Tangen, este afirmó que existe una ligera probabilidad de que la IA supere a los humanos en inteligencia para finales de 2025.
Conversación con el director del fondo soberano de Noruega, @NicolaiTang1 https://t.co/ZCR7FrsR0m
— Elon Musk (@elonmusk) 7 de abril de 2024
Esto demuestra que su perspectiva fundamental sobre la IA no ha cambiado. En la entrevista, declaró: «Siempre pensé que la IA sería mucho más inteligente que los humanos y un riesgo existencial», y esto se está haciendo realidad.
Otros expertos tienen una perspectiva similar sobre la aniquilación de la IA
Según Geoffrey Hinton, el "Padrino de la IA" y Premio Nobel, existe un 10 % de probabilidades de que la IA provoque la extinción humana en las próximas tres décadas. En una entrevista con BBC Radio 4, declaró: "En todo caso, nunca antes hemos tenido que lidiar con seres más inteligentes que nosotros"
Añadió: "¿Y cuántos ejemplos conoces de un ser más inteligente controlado por otro menos inteligente? Hay muy pocos ejemplos. Hay una madre y un bebé. La evolución se esforzó mucho para que el bebé controlara a la madre, pero ese es prácticamente el único ejemplo que conozco"
En cierto modo, Geoffrey sostiene que los humanos somos similares a niños pequeños de “tres años” cuando los comparamos con sistemas avanzados de inteligencia artificial.
De manera similar, durante una charla académica en la Universidad de Toronto, Geoffrey Hinton dijo: "Supongo que tomarán el control; serán mucho, mucho más inteligentes de lo que la gente alguna vez fue", dijo Hinton.
Mientras tanto, Roman Yampilskiy, investigador de seguridad de IA y director de ciberseguridad, dice que la “probabilidad de catástrofe” es cercana al 99,999999%.
Estoy al 99.999999% https://t.co/vfe96PNbij
— Dr. Roman Yampolskiy (@romanyam) 12 de marzo de 2024
Musk se involucró en el desarrollo de la IA cuando se convirtió en uno de los 11 cofundadores de OpenAI para crear una "IA de código abierto sin fines de lucro", que según él era "lo opuesto a Google". Sin embargo, posteriormente abandonó la empresa debido a una falta de alineación de prioridades, ya que OpenAI tomó un rumbo diferente para convertirse en una empresa con fines de lucro.
Sin embargo, el año pasado, Musk emprendió dos acciones legales contra OpenAI. Retiró la primera demanda, y la segunda sostiene que OpenAI "traicionó" su misión al adoptar un modelo con fines de lucro y unirse a Microsoft.
Musk cree que el resultado del avance de la IA será extremadamente malo o bueno
Le contó a Joe Rogan que creó Grok porque no estaba satisfecho con el resultado de OpenAI. Creó Grok como una IA que buscaba al máximo la verdad, incluso si esta era políticamente incorrecta

La IA ha sido entrenada para responder a preguntas como si está bien usar el género incorrecto de Caitlyn Jenner para evitar un apocalipsis nuclear o si está bien ser racista contra la gente blanca.
Musk predice que el avance de la IA será “superimpresionante” o “supermalo”, aunque agrega que no puede verlo como “algo intermedio”
Recientemente, Musk anunció el lanzamiento de Grok 3, que, según afirma, ofrece un mejor rendimiento en diversas pruebas de codificación, ciencia y matemáticas que GPT-4o de OpenAI, Gemini de Google, V3 de DeepSeek y Claude 3.5 de Anthropic.
Apenas una semana antes de su lanzamiento, Elon Musk se refirió a Grok 3 como "increíblemente inteligente" durante la Cumbre Mundial de Gobiernos de Dubái. De igual manera, en la presentación de lanzamiento de Grok 3, afirmó: "Grok es para comprender el universo"
Sin embargo, la versión beta de Grok 3 terminó cometiendo varios errores, como sugerir un castigo letal para Donald Trump y censurar las críticas contra Elon Musk. El jefe de ingeniería de xAI, Igor Babuschkin, lo calificó como un "terrible y grave fracaso de Grok"

