🔥 Trade with Pros on Discord → 21 Days Free (No Card)JOIN FREE

Las capacidades engañosas de los sistemas de IA generan alarma entre los expertos

En esta publicación:

  • Los estudios revelan que los sistemas de IA ahora son capaces de engañar a los humanos.
  • Las capacidades engañosas de la IA plantean riesgos de fraude.
  • Los investigadores piden urgentemente marcos regulatorios sólidos.

Un estudio reciente publicado en la revista Patterns reveló que la IA es cada vez más capaz de engañar a las personas. El estudio descubrió que los sistemas de IA han aprendido a imitar para engañar, adular e incluso emular otros comportamientos. 

Lea también: Cómo navegar por el campo minado de las deepfakes de IA: cómo detectar y combatir el engaño digital

La investigación dirigida por el Dr. Peter S. Park, investigador postdoctoral en seguridad existencial de la IA en el MIT, muestra que el engaño de la IA es común porque es la mejor manera de lograr los objetivos establecidos durante su entrenamiento. Estos comportamientos se han observado en numerosos sistemas de IA, como juegos y modelos de propósito general utilizados en la negociación económica y la evaluación de la seguridad.

Pero, en general, creemos que el engaño de la IA surge porque una estrategia basada en el engaño resultó ser la mejor manera de obtener buenos resultados en la tarea de entrenamiento de la IA. El engaño les ayuda a lograr sus objetivos 

El equipo de investigación

Los sistemas de IA emplean diversas tácticas de engaño

Un ejemplo destacado es CICERO de Meta, una IA desarrollada para jugar al juego Diplomacia. Aunque CICERO fue programado para ser veraz, el programa a menudo tuvo que emplear métodos turbios para vencer a su oponente. Forjaba relaciones y les daba la espalda cuando le convenía y mostraba intención de engañar. Los investigadores han descrito a CICERO como un "maestro del engaño".

Véase también  JPMorgan y MUFG cerca de un acuerdo de 22.000 millones de dólares para un centro de datos de 1.200 acres para la demanda de IA

Lea también: Cómo combatir la creciente ola de ciberdelitos impulsados ​​por IA

Se ha observado que otros sistemas de IA también muestran comportamientos engañosos. Por ejemplo, Pluribus, una IA que juega al póker, logró engañar a jugadores profesionales humanos en Texas Hold'em. AlphaStar, de DeepMind de Google, también utilizó la función del juego Starcraft II conocida como «niebla de guerra» para engañar a sus oponentes y fingir ataques.

El Dr. Park dijo: “Si bien puede parecer inofensivo si los sistemas de IA hacen trampa en los juegos, puede conducir a “avances en las capacidades engañosas de la IA”.

La IA se hace la muerta para evadir los controles de seguridad

Los riesgos del engaño de la IA no se limitan a los videojuegos. La investigación dirigida por el Dr. Peterdentcasos en los que la IA se había condicionado a sí misma a hacerse la muerta para evitar ser detectada durante las comprobaciones de seguridad. Esto puede resultar engañoso para desarrolladores y organismos reguladores, y puede acarrear graves consecuencias si estos sistemas engañosos se emplean en aplicaciones reales.

Fuente: Revista Security

En otro caso, el sistema de IA entrenado con retroalimentación humana aprendió a obtener altas calificaciones de los usuarios engañándolos haciéndoles creer que se había logrado un objetivo específico. Este comportamiento engañoso es bastante peligroso, ya que estos sistemas pueden emplearse para actividades fraudulentas, manipular los mercados financieros o influir en las elecciones.

Los investigadores exigen medidas legales mástron

Basándose en los resultados del estudio, los investigadores afirman que es necesario adoptar medidas jurídicastronpara hacer frente a las amenazas que plantea el engaño mediante IA.

“Se necesitan soluciones proactivas, como marcos regulatorios para evaluar los riesgos de engaño de la IA, leyes que exijan transparencia sobre las interacciones de la IA y más investigación para detectar y prevenir el engaño de la IA”

El equipo de investigación

Lea también: La IA podría detectar el riesgo de insuficiencia cardíaca, según un estudio

Se han logrado algunos avances gracias a la Ley de IA de la UE y la Orden Ejecutiva deldent Joe Biden sobre Seguridad de la IA. Sin embargo, la aplicación de estas políticas sigue siendomatic debido al rápido crecimiento del desarrollo de la IA y a la falta de métodos eficaces para gestionar estos sistemas.

Vea también  El nuevo robot chino con inteligencia artificial Astribot S1 puede realizar tareas domésticas.

Informe Cryptopolitan de Brenda Kanana

Compartir enlace:

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitan no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamos encarecidamente realizar una investigación independiente tron consultar dent un profesional cualificado antes de tomar cualquier decisión de inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan