Eine Studie der drei Universitäten Cornell, Olin College und Stanford hat gezeigt, dass die Fähigkeit von KI, Empathie in Konversationsassistenten wie Alexa und Siri zu zeigen, recht begrenzt ist. Die Ergebnisse dieser Studie, die auf der CHI 2024-Konferenz eingereicht wurde, deuten darauf hin, dass die Assistenten zwar gut darin sind, emotionale Reaktionen darzustellen, die Interpretation und das Verständnis der Nutzererfahrung jedoch schwierig werden.
Studie deckt Vorurteile und Diskriminierung auf
Diese Studie, die auf Daten der Stanford-Forscherin Andrea Cuadra basiert, untersucht, wie affektive Störungen (CAs) unterschiedliche sozialedenterkennen und darauf reagieren. Anhand von 65 verschiedenendentzeigte die Studie, dass CAs dazu neigen, Menschen zu kategorisieren, wobeident, die insbesondere die sexuelle Orientierung oder die Religion betreffen, am anfälligsten für diese Tendenz sind.
Automatisierte Computerprogramme (CAs), deren Wissen in Sprachmodelle (LLMs) einfließt, welche mit großen Mengen von Menschen erstellten Daten trainiert werden, können daher die schädlichen Verzerrungen dieser Daten aufweisen. Sie neigen insbesondere zu Diskriminierung; CAs können sich mit Ideologien solidarisieren, die negative Auswirkungen auf Menschen haben, wie beispielsweise den Nationalsozialismus.
Die Auswirkungen automatisierter Empathie
Aus seinem Konzept der künstlichen Empathie ging hervor, dass dessen Anwendungsmöglichkeiten im Bildungs- und Gesundheitswesen vielfältig sind. Andererseits wurde auch die Notwendigkeit betont, dass die Menschen wachsam bleiben und die Probleme, die mit solchen Fortschritten einhergehen können, nicht ignorieren sollten.
Wie die Forscher feststellen, zeigen die LLMs zwar eine hohe Fähigkeit, emotionale Reaktionen hervorzurufen, sind aber gleichzeitig in der Interpretation und Erforschung von Nutzererfahrungen unzureichend. Dies ist ein Nachteil, da die UIs möglicherweise nicht in der Lage sind, über die oberflächliche Ebene hinausgehende, tiefgreifende emotionale Interaktionen mit den Nutzern aufzubauen.

