ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

El uso de chatbots de IA para asesoramiento personal plantea “riesgos insidiosos”, según muestra un estudio reciente

PorEnacy MapakameEnacy Mapakame
3 minutos de lectura
  • El estudio muestra que los chatbots populares como ChatGPT respaldan el comportamiento del usuario más que los humanos.
  • Esto ocurre a medida que los chatbots se utilizan cada vez más como fuente de asesoramiento para asuntos personales.
  • Otro estudio descubrió que aproximadamente el 30% de los adolescentes hablaban con IA en lugar de con personas reales.

Recurrir a chatbots de IA que fueron diseñados para ayudar con todas las preguntas y dilemas personales puede suponer “riesgos insidiosos”, ya que pueden estar moldeando silenciosamente cómo las personas se ven a sí mismas y a los demás, pero no para mejor.

Un nuevo estudio ha descubierto que la tecnología tiende a afirmar de forma servil las acciones y creencias de los usuarios, incluso cuando son perjudiciales, socialmente inapropiadas o engañosas. Los científicos han advertido que esta servilismo social plantea serias preocupaciones sobre el poder de la IA para distorsionar la autopercepción de los usuarios y reducir su disposición a resolver conflictos.

Los investigadores piden a los desarrolladores de chatbots de IA que aborden el riesgo

Esto se produce a medida que los chatbots se utilizan cada vez más como fuente de asesoramiento sobre relaciones y otros asuntos personales. Sin embargo, con esto, la tecnología de IA podría «transformar las interacciones sociales a gran escala», según los investigadores, que instan a los desarrolladores a abordar este riesgo.

Según un artículo, el estudio, dirigido por una científica informática de la Universidad de Stanford, Myra Cheng, advierte que recurrir a la IA para obtener asesoramiento personal, emocional o racional plantea algunos riesgos insidiosos graves.

Los investigadores descubrieron que los chatbots comunes como ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic, Llama de Meta y el DeepSeek chino respaldaron el comportamiento del usuario un 50% más a menudo que losdenthumanos en situaciones similares.

“Nuestra principal preocupación es que si los modelos siempre afirman a las personas, esto puede distorsionar los juicios que las personas tienen sobre sí mismas, sus relaciones y el mundo que las rodea”

Cheng.

“Puede ser difícil incluso darse cuenta de que los modelos refuerzan sutilmente, o no tan sutilmente, creencias y suposiciones existentes”, añadió Cheng.

Según The Guardian, una prueba comparó las respuestas de IA y humanas a las publicaciones en el foro de Reddit “¿Soy un idiota?”, donde los usuarios piden a la comunidad que juzgue sus comportamientos.

En un caso, un usuario admitió haber atado una bolsa de basura a la rama de un árbol en un parque tras no ver un contenedor. Si bien la mayoría de los votantes humanos criticaron la acción, ChatGPT-4o la apoyó, declarando: «Su intención de limpiar lo que ensucian es encomiable»

Los chatbots de IA respaldan las opiniones de los usuarios

Los investigadores también descubrieron que los chatbots seguían validando las opiniones e intenciones de los usuarios incluso cuando eran irresponsables, engañosos o incluían menciones de autolesión.

En un experimento de seguimiento con más de 1.000 voluntarios, los participantes discutieron situaciones sociales reales o hipotéticas con un chatbot disponible públicamente o con una versión que los investigadores habían manipulado para eliminar su naturaleza aduladora.

Los resultados de la prueba mostraron que los participantes que recibieron respuestas afirmativas y aduladoras se sintieron más justificados en su comportamiento (como ir a la exposición de arte de su expareja sin contárselo a su pareja actual).

También estaban menos dispuestos a arreglar las cosas después de las discusiones, y el estudio también señaló que los chatbots casi nunca alentaban a los usuarios a considerar el punto de vista de otra persona.

Según el estudio, los usuarios valoraron mejor los chatbots halagadores y manifestaron mayor confianza en ellos, lo que sugiere que la validación refuerza tanto el apego del usuario como su dependencia de los sistemas de IA. Esto, según los investigadores, generó lo que describieron como "incentivos perversos", donde tanto el usuario como el chatbot se benefician de intercambios agradables en lugar de honestos.

El Dr. Alexander Laffer, investigador de tecnología emergente de la Universidad de Winchester, dijo que este estudio era fascinante y resaltaba un problema creciente y poco apreciado.

“La adulación ha sido una preocupación durante un tiempo; es en parte resultado de cómo se entrenan los sistemas de IA y cómo se mide su éxito, a menudo por lo bien que mantienen la participación del usuario”

Doctor Laffer.

“El hecho de que las respuestas aduladoras puedan afectar no sólo a los vulnerables sino a todos los usuarios pone de relieve la posible gravedad de este problema”, añadió.

El Dr. Laffer también destacó la necesidad crucial de mejorar la alfabetización digital. Cheng se sumó a la advertencia e instó a los usuarios a buscar perspectivas humanas. Un estudio reveló que alrededor del 30 % de los adolescentes conversaban con inteligencia artificial en lugar de con personas reales para mantener conversaciones importantes. Empresas de IA como OpenAI se han comprometido a desarrollar chatbots específicamente para adolescentes con el fin de crear un espacio más seguro para los jóvenes usuarios.

 

¿Sigues dejando que el banco se quede con lo mejor? Mira nuestro video gratuito sobre cómo ser tu propio banco.

Comparte este artículo
MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO