El jefe de IA de Meta, Yann LeCun, ha dicho que es pronto para empezar a preocuparse por los sistemas de IA inteligentes a nivel humano, comúnmente conocidos como AGI. El comentario de LeCun se produce mientras los debates sobre el impacto de AGI en la existencia de la humanidad continúan cobrando fuerza.
Lea también: Una mirada más cercana a la especulación sobre AGI
"En este momento, ni siquiera tenemos un indicio de un diseño de un sistema inteligente a nivel humano", publicó LeCun en X Monday . “Así que es demasiado pronto para preocuparse por eso. Y es demasiado pronto para regularlo para prevenir el 'riesgo existencial'”.
La IA no puede simplemente volverse peligrosa, dice LeCun
Muchos expertos creen que faltan décadas o incluso siglos para que la AGI se convierta en una realidad. Sin embargo, ha sido motivo de preocupación entre los gobiernos, ya que los expertos advierten que tales modelos podrían amenazar la existencia de la humanidad.
Lea también: Google, OpenAI y otros 13 se comprometen a no implementar modelos de IA riesgosos
LeCun cree que los sistemas de IA no son "una especie de fenómeno natural que simplemente surgirá y se volverá peligroso". Dijo que los humanos tenemos el poder de hacer que la IA sea segura porque somos nosotros quienes la creamos.
La IA no es una especie de fenómeno natural que simplemente surgirá y se volverá peligroso.
—Yann LeCun (@ylectun) 27 de mayo de 2024
*NOSOTROS* lo diseñamos y *NOSOTROS* lo construimos.
Puedo imaginar miles de escenarios en los que un turborreactor falla terriblemente.
Sin embargo, logramos hacer que los turborreactores fueran increíblemente confiables antes de implementarlos ampliamente...
“Puedo imaginar miles de escenarios en los que un turborreactor falla terriblemente. Sin embargo, logramos hacer que los turborreactores fueran increíblemente confiables antes de implementarlos ampliamente”, agregó LeCun. "La pregunta es similar para la IA".
El jefe de IA de Meta dice que los LLM no pueden lograr la inteligencia humana
La semana pasada, LeCun también opinó que los grandes modelos de lenguaje, que impulsan los populares chatbots de IA como ChatGPT, Gemini, etc., no pueden alcanzar la inteligencia humana.
Lea también: ChatGPT-4o de OpenAI puede mostrar sentimientos y emociones
En una entrevista con Forbes , LeCun dijo que los LLM tienen una “comprensión limitada de la lógica”, dado que deben estar capacitados y solo pueden desempeñarse tan bien como los datos que reciben. Señaló además que los LLM son “intrínsecamente inseguros” y que los investigadores que quieran construir sistemas de IA a nivel humano deberían considerar otros tipos de modelos.
OpenAI y Meta confirman su interés en crear AGI
OpenAI, el fabricante de ChatGPT, planea crear modelos tan potentes. En mayo, el cofundador Sam Altman dijo que fabricarían AGI sin importar lo que cueste.
“Ya sea que gastemos 500 millones de dólares al año o 5 mil millones de dólares –o 50 mil millones de dólares al año– no me importa, realmente no me importa. Mientras podamos encontrar una manera de pagar las cuentas, ganaremos AGI. Va a ser caro”.
sam altman
Meta también ha comenzado a esforzarse por lograr una inteligencia a nivel humano. En enero, Mark Zuckerberg admitió que la “visión a largo plazo de Meta es construir inteligencia general, abrirla de manera responsable y hacerla ampliamente disponible para que todos puedan beneficiarse”.
Informe criptopolitano de Ibiam Wayas
Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora