Eine Studie der drei Universitäten Cornell, Olin College und Stanford hat gezeigt, dass die Fähigkeit von KI, Empathie in Konversationsassistenten wie Alexa und Siri zu zeigen, recht begrenzt ist. Die Ergebnisse dieser Studie, die auf der CHI 2024-Konferenz eingereicht wurde, deuten darauf hin, dass die Assistenten zwar gut darin sind, emotionale Reaktionen darzustellen, die Interpretation und das Verständnis der Nutzererfahrung jedoch schwierig werden.
Vorurteile und Diskriminierung aufgedeckt
Diese Studie, die auf Daten der Stanford-Forscherin Andrea Cuadra basiert, untersucht, wie affektive Störungen (CAs) unterschiedliche sozialedenterkennen und darauf reagieren. Anhand von 65 verschiedenendentzeigte die Studie, dass CAs dazu neigen, Menschen zu kategorisieren, wobeident, die insbesondere die sexuelle Orientierung oder die Religion betreffen, am anfälligsten für diese Tendenz sind.
Automatisierte Computerprogramme (CAs), deren Wissen in Sprachmodellen (LLMs) einfließt, die mit großen Mengen an von Menschen erstellten Daten trainiert werden, können daher schädliche Verzerrungen aufweisen, die in den verwendeten Daten enthalten sind. Sie sind insbesondere anfällig für Diskriminierung; CAs können sich mit Ideologien solidarisieren, die negative Auswirkungen auf Menschen haben, wie beispielsweise den Nationalsozialismus.
Die Auswirkungen automatisierter Empathie
Aus seinem Konzept der künstlichen Empathie ging hervor, dass dessen Anwendungsmöglichkeiten im Bildungs- und Gesundheitswesen vielfältig sind. Andererseits wird stark betont, wie wichtig es ist, dass die Menschen wachsam bleiben und die Probleme, die mit solchen Fortschritten einhergehen können, nicht ignorieren.
Wie die Forscher feststellen, weisen die LLMs zwar eine hohe Fähigkeit zur Erzeugung emotionaler Reaktionen auf, sind aber gleichzeitig in ihrer Fähigkeit zur Interpretation und Erkundung von Nutzererfahrungen unzureichend. Dies ist ein Nachteil, da die UIs möglicherweise nicht in der Lage sind, über die oberflächlichen Ebenen hinausgehende, tiefgreifende emotionale Interaktionen mit den Nutzern zu ermöglichen.

