Un estudio en tres universidades: la Universidad de Cornell, el Olin College y la Universidad de Stanford, reveló que la capacidad de la IA para mostrar empatía en agentes de conversación, como Alexa y Siri, es bastante limitada. Los hallazgos de este estudio, presentado en la conferencia CHI 2024, indican que, si bien los CA son eficaces para mostrar reacciones emocionales, la situación se complica al interpretar y explorar la experiencia de los usuarios.
Sesgos y discriminación al descubierto
Utilizando los datos recopilados por la investigadora Andrea Cuadra de Stanford, este estudio busca medir cómo los AC detectan y responden a las diferentesdentsociales entre los seres humanos. Al evaluar 65dentdiferentes, el estudio reveló que los AC tienden a categorizar a las personas, y lasdent, especialmente las relacionadas con la orientación sexual o la religión, son las más vulnerables a este hábito.
Los CA, cuyo conocimiento se incorpora a los modelos lingüísticos (LLM), entrenados con grandes volúmenes de datos generados por humanos, pueden, por lo tanto, presentar sesgos perjudiciales en los datos que utilizan. Son propensos a la discriminación, en particular, los propios CA pueden mostrar solidaridad con ideologías que tienen efectos negativos en las personas, como el nazismo.
Las implicaciones de la empatía automatizada
Su concepto de empatía artificial reveló que sus aplicaciones en los sectores educativo y sanitario son diversas. Por otro lado, se hace mucho hincapié en la necesidad de que los seres humanos permanezcan alerta y eviten agravar los problemas que puedan surgir con estos avances.
Según los investigadores, las LLM demuestran una alta capacidad para generar respuestas emocionales, pero al mismo tiempo son deficientes o carecen de la capacidad suficiente para interpretar y explorar las experiencias de usuario. Esto supone una desventaja, ya que las IU podrían no ser capaces de conectar plenamente con los clientes en interacciones emocionales profundas, más allá de aquellas cuyas capas se han eliminado.

