DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Les préoccupations éthiques s'intensifient face aux IA mortes qui soulèvent des questions de dignité numérique

ParBrenda KananaBrenda Kanana
3 minutes de lecture -
IA Deadbots
  • Les robots morts-vivants dotés d'IA génèrent la personnalité de proches décédés, ce qui soulève des questions éthiques relatives au problème de la détresse émotionnelle et de la dignité numérique. 
  • Des scientifiques de l'université de Cambridge recommandent la création de règles de sécurité efficaces pour permettre le développement de robots d'intelligence artificielle inopérants sans mettre les utilisateurs en danger.
  • Des normes efficaces et éthiques ainsi qu'une réglementation saine constituent des limites éthiques nécessaires dans le domaine de l'IA et dans le secteur de l'au-delà numérique.

Des experts en IA mettent en garde contre l'avènement imminent des IA « deadbots », ou réanimations numériques de personnes décédées. Il est donc impératif de réglementer ce phénomène afin de prévenir les traumatismes psychologiques liés à l'« apparition » de leurs créateurs et utilisateurs.

Un exemple de tels services, techniquement possibles et légalement autorisés, permettrait la création de chatbots utilisant des conversations enregistrées avec un proche disparu pour « rappeler grand-mère », c'est-à-dire comprendre les émotions ressenties après avoir entendu ces discussions, comme l'ont indiqué des chercheurs de l'Université de Cambridge 

Certaines entreprises proposent des services qui rappellent l'épisode « Be Right Back » de Black Mirror, permettant à un chatbot d'imiter les schémas linguistiques et les traits de personnalité d'une personne décédée en utilisant l'empreinte numérique qu'elle a laissée, selon l'étude.

Des mesures de sécurité sont préconisées pour protéger la dignité numérique

L'étude, publiée dans la revue Philosophy and Technology, présente des exemples de la manière dont les « deadbots » peuvent être utilisés par les entreprises, par exemple pour faire la publicité de produits auprès d'une personne de la même manière qu'un être cher décédé ou pour traumatiser des enfants en prétendant qu'un parent décédé est « avec vous ». 

Toutefois, dans tous les cas, les entreprises peu fiables et les initiatives commerciales imprudentes peuvent entraîner des dommages psychologiques à long terme et une violation des droits du défunt, suggère l'article.

Les chercheurs suggèrent que les interactions quotidiennes sont empreintes d'une charge émotionnelle intense. Ils affirment que ce soutien émotionnel peut également entraver le processus de deuil, une manière naturelle de faire face à la perte. 

Un terrain miné sur le plan éthique

 La docteure Katarzyna Nowaczyk-Basińska, co-auteure de l'étude au Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge, a déclaré : « Les progrès rapides de l'IA générative signifient que presque n'importe qui ayant accès à Internet et possédant quelques connaissances de base peut ressusciter un être cher décédé. » 

Ce domaine de l'IA semble poser de sérieux problèmes éthiques. Il est primordial de veiller à ce que la dignité des défunts ne soit pas bafouée par des services à but lucratif, tels que les fournisseurs de services de vie après la mort numériques. Le principal problème pourrait venir des entreprises qui monétisent leur infrastructure de services commémoratifs en ligne par le biais de la publicité. 

Il est particulièrement risqué d'impliquer les enfants dans ce processus, car ils pourraient en subir les conséquences les plus graves. La présence de « robots morts » pourrait bientôt devenir nécessaire pour les parents cherchant à réconforter leurs enfants ayant récemment perdu leur mère ou leur père.

Impact sur le processus de deuil

Cependant, aucune étude ne permet d'évaluer la pertinence de telles initiatives, ce qui devrait inciter à réfléchir à leurs conséquences potentielles, qui pourraient être très désagréables, sans parler du fait qu'elles pourraient perturber le processus de deuil normal.

Selon l'étude, « aucun service de loisirs ne peut prouver que permettre aux enfants d'interagir avec des "robots morts" est bénéfique ou, à tout le moins, ne nuit pas à ce groupe vulnérable ».

Afin de garantir la dignité des défunts et le bien-être psychologique des vivants, les chercheurs proposent un ensemble de bonnes pratiques qui peuvent même aller jusqu'à l'élaboration de lois pour les réglementer.

Ces plateformes ont besoin de protocoles pour « mettre hors service » les robots inactifs, limiter leurs fonctions interactives aux seuls adultes, reconnaître les limites de toute entité artificielle pleinement opérationnelle et faire preuve d'une grande transparence envers les clients.

Portée mondiale et applications variées

D'après les chercheurs, certaines plateformes permettent de générer l'image d'une personne décédée grâce à l'IA à un coût abordable. On peut citer par exemple Project December, qui utilisait initialement des modèles GPT puis leurs systèmes, ainsi que des applications comme Hereafter.

De même, des services similaires existent en Chine, comme indiqué dans l'étude. En 2021, Joshua Barbeau s'est fait connaître du grand public en utilisant GPT-3 pour créer un chatbot qui parlait avec la voix de sa compagne décédée. En 2015, Eugenia Kuyda a transformé les SMS de son amie disparue en un chatbot, donnant ainsi naissance à Replika, l'application d'assistance IA la plus populaire.

Cette technologie ne se limite pas aux chatbots. En 2021, le site de généalogie MyHeritage a lancé Deep Nostalgia, une fonctionnalité générant des vidéos animées à partir de photos de famille avec les ancêtres des utilisateurs. Face au succès viral de cette fonctionnalité, l'entreprise a dû reconnaître que de nombreux utilisateurs la jugeaient inquiétante. Avec le développement progressif de ces technologies, il est indispensable de prendre en compte l'éthique pour en faciliter l'utilisation. 

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES