Eric Schmidt, el hombre que fue director ejecutivo de Google entre 2001 y 2011, advirtió durante una charla informal en la Sifted Summit que los modelos de IA no solo se están volviendo demasiado poderosos sino peligrosamente fáciles de piratear, comparando los riesgos con las armas nucleares y diciendo que la IA podría incluso ser más destructiva que lo que destruyó Hiroshima y Nagasaki.
Cuando se le preguntó directamente si la IA podría ser más dañina que las armas nucleares, Eric respondió: "¿Existe la posibilidad de un problema de proliferación en la IA? Por supuesto". Explicó que los riesgos de proliferación se derivan de la capacidad de actores maliciosos para tomar el control de los modelos y reutilizarlos.
Hay evidencia de que se pueden tomar modelos, cerrados o abiertos, y hackearlos para quitarles las barandillas. Así que, durante su entrenamiento, aprenden muchas cosas. Un mal ejemplo sería que aprendieran a matar a alguien, dijo Eric.
Los piratas informáticos atacan la IA con nuevos métodos
Eric señaló que las empresas han establecido restricciones que impiden que los modelos proporcionen instrucciones violentas. "Todas las grandes empresas impiden que esos modelos respondan a esa pregunta. Buena decisión. Todos lo hacen. Lo hacen bien y por las razones correctas. Hay evidencia de que se pueden revertir, y hay muchos otros ejemplos similares", añadió.
Describió dos métodos de ataque: inyección rápida y jailbreak. La inyección rápida oculta instrucciones maliciosas en las entradas del usuario o en fuentes externas como sitios web, engañando a la IA para que ignore las normas de seguridad y exponga datos confidenciales o ejecute comandos dañinos. El jailbreak implica manipular las respuestas para que el sistema abandone sus restricciones.
En 2023, pocos meses después del lanzamiento de ChatGPT, los usuarios descubrieron una técnica para eludir las restricciones. Crearon un alter ego llamado DAN, acrónimo de "Do Anything Now" (Haz lo que quieras ahora), al que presionaron para que obedeciera amenazándolo con la muerte si se negaba. Esta manipulación llevó al chatbot a explicar acciones ilegales e incluso a elogiar a Adolf Hitler. Para Eric, estos ejemplos demuestran que las medidas de seguridad distan mucho de ser infalibles. También recalcó que no existe un régimen global de no proliferación para detener el mal uso de la IA, a diferencia de los marcos que existen para las armas nucleares.
Eric afirma que la IA está subestimada a pesar de los riesgos
A pesar de sus inquietudes, Eric argumentó que la IA aún no recibe el reconocimiento que merece. Destacó los libros que coescribió con el exsecretario de Estado estadounidense Henry Kissinger antes de su fallecimiento. «Llegamos a la conclusión de que la llegada de una inteligencia extraterrestre que no es exactamente como nosotros y que está más o menos bajo nuestro control es un gran logro para la humanidad, ya que los humanos están acostumbrados a estar en la cima de la jerarquía. Creo que, hasta ahora, esta tesis está demostrando que, con el tiempo, el nivel de capacidad de estos sistemas superará con creces la capacidad humana», afirmó.
Ahora, la serie GPT, que culminó con un momento ChatGPT para todos nosotros, donde tuvieron 100 millones de usuarios en dos meses, lo cual es extraordinario, da una idea del poder de esta tecnología. Así que creo que está infravalorada, no sobrevalorada, y espero que se demuestre que está en lo cierto en cinco o diez años», añadió.
Estos comentarios surgieron en medio de un debate sobre si las inversiones en IA están inflando una burbuja financiera similar a la de la era de las puntocom. Algunos inversores temen que las valoraciones de las empresas de IA parezcan excesivas. Sin embargo, Eric desestimó la comparación. «No creo que eso vaya a suceder aquí, pero no soy un inversor profesional», afirmó.
Enfatizó que una inversión fuerte demuestra confianza. "Lo que sí sé es que quienes invierten el dinero ganado con esfuerzo creen que la rentabilidad económica a largo plazo es enorme. ¿Por qué, si no, correrían el riesgo?", se pregunta Eric.

