El llamamiento de Elon Musk para detener todos los experimentos de IA a gran escala ha causado conmoción en el sector tecnológico, con el respaldo de numerosas figuras influyentes. A medida que los riesgos asociados al desarrollo descontrolado de la IA se hacen cada vez más evidentes, la comunidad cripto también está tomando nota de la advertencia.
Elon Musk ha firmado una carta abierta instando a detener el entrenamiento de nuevos modelos de IA más potentes que GPT-4.
- Aram Mughalyan.eth (@AramMughalyan) 29 de marzo de 2023
Existe conciencia de que el rápido desarrollo de la IA puede suponer graves riesgos para la humanidad. ¿
Es hora de frenar y asegurarnos de comprender cómo podemos controlarla? pic.twitter.com/mR4YOGVaz7
Según los expertos, dado que muchos proyectos de blockchain y criptomonedas supuestamente dependen en gran medida de la inteligencia artificial y los algoritmos de aprendizaje automático, el impacto potencial de la experimentación no regulada en este campo podría tener consecuencias catastróficas.
Steve Wozniak, cofundador de Apple, se ha unido a Musk para firmar la carta abierta, subrayando la urgencia de la situación. Según fuentes cercanas, a medida que las criptomonedas se entrelazan cada vez más con la IA, una correcta integración con los gobiernos y los organismos reguladores se ha vuelto fundamental.
Sin una supervisión adecuada, los riesgos que plantea la experimentación sin control podrían ser desastrosos para esta industria incipiente. Por ello, muchos expertos abogan por una pausa en todos los proyectos de IA a gran escala hasta que se resuelvan estos problemas.
Advertencia sobre los potentes sistemas de IA y sus repercusiones en las criptomonedas
La carta insta a las empresas tecnológicas a no desarrollar sistemas de inteligencia artificial (IA) que superen las capacidades de GPT-4, que es la tecnología de vanguardia más reciente en sistemas de procesamiento del lenguaje a gran escala.
En concreto, la carta se refiere a GPT-4 como la “última tecnología de vanguardia en sistemas de procesamiento del lenguaje a gran escala”. Según un artículo publicado en la revista Fortune, la eficacia de los modelos de inteligencia artificial es proporcional tanto al tamaño de los modelos como al número de chips informáticos especializados necesarios para su entrenamiento.
En consecuencia, la carta pretende advertir que cualquier avance en inteligencia artificial podría dar lugar a máquinas fuera del control humano. Según la carta, el sector tecnológico se encuentra en una encrucijada en la que debe elegir entre priorizar la seguridad o seguir impulsando los límites del desarrollo de la inteligencia artificial.
Se teme que si las empresas continúan desarrollando sistemas de inteligencia artificial que superen las capacidades de GPT-4, esto podría tener consecuencias desastrosas, como la pérdida de empleos, la invasión de la privacidad e incluso riesgos existenciales para la humanidad. Por ello, la carta insta a las empresas tecnológicas a reflexionar sobre las posibles consecuencias de sus actividades y a adoptar un enfoque más responsable en el desarrollo de la inteligencia artificial.
En resumen, la carta insta a las empresas tecnológicas a actuar con cautela y a abstenerse de desarrollar sistemas de inteligencia artificial más avanzados que los que ofrecen determinadas empresas.
cripto