Your bank is using your money. You’re getting the scraps.WATCH FREE

El ex director ejecutivo de Google, Eric Schmidt, dice que los modelos de IA eventualmente aprenderían a matar

En esta publicación:

  • Eric Schmidt advirtió en la Sifted Summit que la IA podría ser hackeada y eventualmente aprender a matar.
  • Dijo que los modelos pueden ser sometidos a ingeniería inversa a través de métodos como la inyección rápida y el jailbreak.
  • Eric recordó la fuga de información de ChatGPT en 2023 que creó el alter ego DAN, que daba respuestas peligrosas.

Eric Schmidt, el hombre que fue director ejecutivo de Google entre 2001 y 2011, advirtió durante una charla informal en la Sifted Summit que los modelos de IA no solo se están volviendo demasiado poderosos sino peligrosamente fáciles de piratear, comparando los riesgos con las armas nucleares y diciendo que la IA podría incluso ser más destructiva que lo que destruyó Hiroshima y Nagasaki.

Cuando se le preguntó directamente si la IA podría ser más dañina que las armas nucleares, Eric respondió: "¿Existe la posibilidad de un problema de proliferación en la IA? Por supuesto". Explicó que los riesgos de proliferación se derivan de la capacidad de actores maliciosos para tomar el control de los modelos y reutilizarlos.

Hay evidencia de que se pueden tomar modelos, cerrados o abiertos, y hackearlos para quitarles las barandillas. Así que, durante su entrenamiento, aprenden muchas cosas. Un mal ejemplo sería que aprendieran a matar a alguien, dijo Eric.

Los piratas informáticos atacan la IA con nuevos métodos

Eric señaló que las empresas han establecido restricciones que impiden que los modelos proporcionen instrucciones violentas. "Todas las grandes empresas impiden que esos modelos respondan a esa pregunta. Buena decisión. Todos lo hacen. Lo hacen bien y por las razones correctas. Hay evidencia de que se pueden revertir, y hay muchos otros ejemplos similares", añadió.

Ver también:  El director de Marvels recibió una nota extraña después de la proyección.

Describió dos métodos de ataque: inyección rápida y jailbreak. La inyección rápida oculta instrucciones maliciosas en las entradas del usuario o en fuentes externas como sitios web, engañando a la IA para que ignore las normas de seguridad y exponga datos confidenciales o ejecute comandos dañinos. El jailbreak implica manipular las respuestas para que el sistema abandone sus restricciones.

En 2023, pocos meses después del lanzamiento de ChatGPT, los usuarios descubrieron una técnica para eludir las restricciones. Crearon un alter ego llamado DAN, acrónimo de "Do Anything Now" (Haz lo que quieras ahora), al que presionaron para que obedeciera amenazándolo con la muerte si se negaba. Esta manipulación llevó al chatbot a explicar acciones ilegales e incluso a elogiar a Adolf Hitler. Para Eric, estos ejemplos demuestran que las medidas de seguridad distan mucho de ser infalibles. También recalcó que no existe un régimen global de no proliferación para detener el mal uso de la IA, a diferencia de los marcos que existen para las armas nucleares.

Eric afirma que la IA está subestimada a pesar de los riesgos

A pesar de sus inquietudes, Eric argumentó que la IA aún no recibe el reconocimiento que merece. Destacó los libros que coescribió con el exsecretario de Estado estadounidense Henry Kissinger antes de su fallecimiento. «Llegamos a la conclusión de que la llegada de una inteligencia extraterrestre que no es exactamente como nosotros y que está más o menos bajo nuestro control es un gran logro para la humanidad, ya que los humanos están acostumbrados a estar en la cima de la jerarquía. Creo que, hasta ahora, esta tesis está demostrando que, con el tiempo, el nivel de capacidad de estos sistemas superará con creces la capacidad humana», afirmó.

Véase también:  OpenAI da la bienvenida a un nuevo liderazgo en medio de alianzas estratégicas y avances en IA.

Ahora, la serie GPT, que culminó con un momento ChatGPT para todos nosotros, donde tuvieron 100 millones de usuarios en dos meses, lo cual es extraordinario, da una idea del poder de esta tecnología. Así que creo que está infravalorada, no sobrevalorada, y espero que se demuestre que está en lo cierto en cinco o diez años», añadió.

Estos comentarios surgieron en medio de un debate sobre si las inversiones en IA están inflando una burbuja financiera similar a la de la era de las puntocom. Algunos inversores temen que las valoraciones de las empresas de IA parezcan excesivas. Sin embargo, Eric desestimó la comparación. «No creo que eso vaya a suceder aquí, pero no soy un inversor profesional», afirmó.

Enfatizó que una inversión fuerte demuestra confianza. "Lo que sí sé es que quienes invierten el dinero ganado con esfuerzo creen que la rentabilidad económica a largo plazo es enorme. ¿Por qué, si no, correrían el riesgo?", se pregunta Eric.

Las mentes más brillantes del mundo de las criptomonedas ya leen nuestro boletín. ¿Te apuntas? ¡ Únete!

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan