Wird geladen...

Studie hebt Einschränkungen der KI-generierten Empathie hervor

In diesem Beitrag:

  • Der KI-Empathie mangelt es an Scharfsinn und sie ist anfällig für Vorurteile.
  • Emotionale Reaktionen sind tron , aber die Interpretation ist schwach.
  • Forscher warnen vor möglichen Schäden und fordern kritische Perspektiven

Durch eine Studie von drei Universitäten: Cornell University, Olin College und Stanford University, sind sie zu der Erkenntnis gekommen, dass die Fähigkeiten der KI, Empathie in Gesprächsagenten wie Alexa und Siri zu zeigen, eher begrenzt sind. Die Ergebnisse dieser Studie, die der CHI 2024-Konferenz vorgelegt wurde, zeigen, dass die CAs zwar gut darin sind, emotionale Reaktionen zu zeigen, die Situation jedoch schwierig wird, wenn es um die Interpretation und Erforschung der Benutzererfahrungen geht.

Vorurteile und Diskriminierung aufgedeckt

 Mithilfe der von der Forscherin Andrea Cuadra aus Stanford gesammelten Daten soll diese Studie messen, wie CAs unterschiedliche soziale dent zwischen Menschen erkennen und darauf reagieren. Die Forschungsstudie testete 65 verschiedene dent und ergab, dass CAs dazu neigen, Einzelpersonen zu kategorisieren, und dass dent , insbesondere in Bezug auf sexuelle Orientierung oder Religion, am anfälligsten für diese Gewohnheit sind.  

CAs, deren Wissen in die Sprachmodelle (LLMs) einfließt, die auf großen Mengen von Menschen erstellter Daten trainiert werden, können daher schädliche Verzerrungen in den von ihnen verwendeten Daten aufweisen. Es ist besonders anfällig für Diskriminierung, da CAs selbst unterwegs sein können, um Solidarität mit Ideologien zu zeigen, die negative Auswirkungen auf Menschen haben, wie etwa dem Nationalsozialismus.  

Die Auswirkungen automatisierter Empathie 

 Aus seinem Konzept der künstlichen Empathie ging hervor, dass die Anwendungsmöglichkeiten im Bildungs- und Gesundheitssektor vielfältig sind. Andererseits liegt großer Wert auf der Notwendigkeit, dass die Menschen wachsam bleiben und die Probleme vermeiden, die mit solchen Fortschritten entstehen können.  

Wie die Forscher feststellten, weisen die LLMs eine hohe Fähigkeit auf, emotionale Reaktionen hervorzurufen, gleichzeitig sind sie jedoch lahm oder es mangelt ihnen an ausreichenden Fähigkeiten zur Interpretation und Erkundung von Benutzererfahrungen. Dies ist ein Nachteil, da die UIs möglicherweise nicht in der Lage sind, sich vollständig mit Kunden in tiefe emotionale Interaktionen zu befassen, die über diejenigen hinausgehen, deren Schichten entfernt wurden.

Haftungsausschluss. Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir tron dringend unabhängige dent und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie Anlageentscheidungen treffen.

Einen Link teilen:

Meist gelesen

Die meisten gelesenen Artikel werden geladen...

Bleiben Sie über Krypto-Neuigkeiten auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang

Ähnliche Neuigkeiten

AMD übernimmt das europäische Startup Silo AI für 665 Millionen US-Dollar
Kryptopolitan
Abonnieren Sie CryptoPolitan