Un estudio realizado en tres universidades (Cornell, Olin College y Stanford) reveló que la capacidad de la IA para mostrar empatía en agentes de conversación como Alexa y Siri es bastante limitada. Los hallazgos de este estudio, presentado en la conferencia CHI 2024, indican que, si bien los CA son eficaces para mostrar reacciones emocionales, la situación se complica al interpretar y explorar la experiencia de los usuarios.
Estudio descubre sesgos y discriminación
Utilizando los datos recopilados por la investigadora Andrea Cuadra de Stanford, este estudio busca medir cómo los AC detectan y responden a las diferentesdentsociales entre los seres humanos. Al evaluar 65dentdiferentes, el estudio reveló que los AC tienden a categorizar a las personas, y lasdent, especialmente las relacionadas con la orientación sexual o la religión, son las más vulnerables a este hábito.
Los CA, cuyo conocimiento se incorpora a los modelos lingüísticos (LLM), entrenados con grandes volúmenes de datos generados por humanos, pueden, por lo tanto, presentar sesgos perjudiciales presentes en los datos que han utilizado. Son propensos a la discriminación, en particular, los propios CA pueden mostrarse solidarios con ideologías que tienen efectos negativos en las personas, como el nazismo.
Las implicaciones de la empatía automatizada
Su concepto de empatía artificial reveló que sus aplicaciones en los sectores educativo y sanitario son diversas. Por otro lado, se hace gran hincapié en la necesidad de que los seres humanos permanezcan alerta y eviten agravar los problemas que puedan surgir con tales avances.
Según los investigadores, las LLM demuestran una alta capacidad para generar respuestas emocionales, pero al mismo tiempo son deficientes o carecen de la capacidad suficiente para interpretar y explorar las experiencias de usuario. Esto supone una desventaja, ya que las IU podrían no ser capaces de conectar plenamente con los clientes en interacciones emocionales profundas, más allá de aquellas cuyas capas se han eliminado.

