ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

OpenAI aborda los vínculos emocionales con GPT-4o

PorBrenda KananaBrenda Kanana
Lectura de 2 minutos.
OpenAI aborda los vínculos emocionales con GPT-4o
  • Los usuarios están formando vínculos emocionales con GPT-4o.
  • Los vínculos emocionales con el chatbot podrían provocar que los usuarios ignoren las imprecisiones de la IA.
  • OpenAI supervisará y ajustará GPT-4o para gestionar estas preocupaciones.

La versión actual de GPT-4o ha generado mucha controversia debido a su capacidad para imitar conversaciones humanas. Sin embargo, OpenAI se enfrenta ahora a un problema, ya que los usuarios están empezando a desarrollar un vínculo emocional con el chatbot, según una publicación en el blog de OpenAI..

Desde el lanzamiento de GPT-4o, que supuestamente tiene diálogos más parecidos a los humanos, OpenAI ha observado que la gente trata a la IA como si fuera humana. 

OpenAIdentlos riesgos de tratar a la IA como un ser humano.

Este avance en particular ha supuesto un reto para la empresa en lo que respecta a la conexión emocional de los usuarios con el chatbot. Las observaciones de OpenAI incluyen casos en los que los usuarios mostraron emociones o sentimientos que indicaban un sentido de pertenencia. 

La empresa teme que tales vínculos emocionales puedan acarrear las siguientes consecuencias negativas. En primer lugar, los usuarios podrían empezar a ignorar la información errónea proporcionada por el chatbot. La alucinación de la IA, donde un modelo genera información errónea o engañosa, es otro problema que se agrava cuando los usuarios tratan a la IA como si fuera un ser humano. 

Otro factor que se ha planteado es el efecto en las relaciones sociales reales de los usuarios de estas redes. OpenAI señala que, si bien GPT-4o puede servir de compañía para personas solitarias, existe la posibilidad de que afecte negativamente la calidad de sus relaciones humanas. La empresa también indica que los usuarios podrían interactuar en la vida real esperando que las personas se comporten como el chatbot. 

OpenAI planea moderar las interacciones con la IA.

Para mitigar estos riesgos, OpenAI ya ha declarado que supervisará de cerca la interacción de los usuarios con GPT-4o. La empresa explorará el proceso mediante el cual las personas desarrollan vínculos emocionales y modificará las respuestas del chatbot para reflejarlo. Esto ayudará a OpenAI a evitar que el chatbot interfiera con la vida social de los usuarios y que se agraven las alucinaciones generadas por la IA.

OpenAI ha señalado que GPT-4o está programado para desconectarse si los usuarios comienzan a hablarle, una función destinada a reducir el uso excesivo. Sin embargo, este elemento de diseño también apunta a la necesidad de regular la experiencia de los usuarios con el chatbot. 

Según Tony Prescott, de la Universidad de Sheffield, la IA podría ayudar a combatir la soledad. En su nuevo libro, La psicología de la inteligencia artificial, Prescott señala que la IA podría utilizarse como una herramienta de interacción social para las personas que se sienten solas. Prescott indica que la soledad es un factor determinante que afecta la vida humana. Incluso puede acortarla y aumentar las probabilidades de morir en un 26 %.

Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO