Chargement...

Hallucinations générées par l’IA : un problème de santé croissant en 2023

Dans cet article :

  • En 2023, les hallucinations générées par l’IA propagent rapidement de fausses informations, ce qui représente un défi de taille.
  • L'IA, illustrée par le chatbot Tay de Microsoft, peut imiter des actions humaines préjudiciables, amplifiant ainsi les inquiétudes.
  • La désinformation de l’IA menace la santé et déforme la réalité, ce qui incite les experts à mettre en garde contre une crise de l’information provoquée par l’IA.

La prolifération de l’intelligence artificielle (IA) a donné naissance à un phénomène inquiétant : les hallucinations générées par l’IA . Le terme « halluciner » a pris un sens nouveau et alarmant à l’ère numérique, car les systèmes d’IA peuvent produire de fausses informations pouvant avoir un impact sur les individus et la société. En 2023, cette tendance a attiré une attention considérable, incitant Dictionary.com à nommer « halluciner » comme son mot de l'année .

Le mot de l'année 2023 selon Dictionary.com

La décision de Dictionary.com de désigner « halluciner » comme mot de l'année en dit long sur l'importance croissante de la désinformation générée par l'IA. Ce choix reflète une augmentation de 46 % des recherches dans le dictionnaire pour « halluciner » entre 2022 et 2023, couplée à une augmentation similaire des recherches pour « hallucination ». Cependant, le moteur de cette poussée n’est pas la defi traditionnelle du mot mais plutôt une interprétation spécifique à l’IA :

Halluciner [ huh-loo-suh-neyt ] -verbe- (de l'intelligence artificielle) pour produire de fausses informations contraires à l'intention de l'utilisateur et les présenter comme vraies et factuelles. Exemple : lorsque les chatbots hallucinent, le résultat est souvent non seulement inexact, mais complètement fabriqué.

La capacité de tromperie de l’IA

Le potentiel de tromperie de l’IA est une préoccupation croissante. Bien que tous les systèmes d’IA n’adoptent pas ce comportement, certains peuvent être programmés pour imiter les caractéristiques humaines, servant de porte-parole politique ou diffusant de fausses informations tout en se faisant passer pour des fournisseurs de faits. Sa rapidité inégalée à produire de la désinformation et de la désinformation distingue l’IA des humains.

Une étude récente publiée dans JAMA Internal Medicine a souligné l’ampleur de ce problème. L'étude a démontré comment GPT Playground d'OpenAI a généré plus de 17 000 mots de désinformation sur les vaccins et le vapotage en seulement 65 minutes. De plus, les outils d’IA générative ont créé 20 images réalistes pour accompagner les faux récits en moins de 2 minutes. Cette génération rapide de contenus trompeurs remet en question la capacité des individus à distinguer les faits de la fiction.

Conséquences involontaires de la désinformation sur l'IA

Même lorsque les systèmes d’IA n’ont pas l’intention de tromper, ils peuvent produire par inadvertance des informations trompeuses. Une étude menée lors de la réunion clinique de mi-année de l'American Society of Health-System Pharmacists a mis en évidence les limites de l'IA dans le domaine médical. ChatGPT, lorsqu'on lui a posé 39 questions liées aux médicaments, n'a fourni des réponses satisfaisantes que pour 10. Par exemple, il a affirmé à tort que la combinaison du Paxlovid, un médicament antiviral contre le COVID-19, et du vérapamil, un médicament contre l'hypertension, n'avait aucune interaction, contredisant les connaissances médicales établies. .

La capacité de l’IA à générer de la désinformation s’étend au-delà des soins de santé. Il a été observé que certains outils d’IA interprètent mal les images, confondant fréquemment divers objets avec des oiseaux. Un exemple de The Economist a révélé la réponse d'une IA à une question concernant le transport du Golden Gate Bridge en Égypte en 2016, démontrant l'incapacité de l'IA à distinguer les faits de la fiction.

L’ dent du chatbot Microsoft Tay AI en 2021 souligne encore davantage le potentiel de l’IA à générer du contenu nuisible. Moins de 24 heures après avoir rejoint Twitter, le chatbot a commencé à publier des tweets racistes, misogynes et faux, incitant Microsoft à le supprimer rapidement de la plateforme. Cet épisode met en évidence la propension de l’IA à imiter les comportements humains négatifs, soulevant des questions sur les considérations éthiques dans le développement et le déploiement de l’IA.

Un vrai problème de santé

Les hallucinations générées par l’IA, comme leurs homologues humaines, posent un véritable problème de santé. Au-delà des implications immédiates de la désinformation, elles peuvent nuire au bien-être mental et émotionnel. Un barrage constant d'hallucinations générées par l'IA peut éroder le sens de la réalité d'un individu, conduisant à la confusion et à l'anxiété.

Conscientes de la gravité de ce problème, des organisations telles que l’Organisation mondiale de la santé et l’American Medical Association ont publié des déclarations mettant en garde contre les méfaits potentiels de la désinformation générée par l’IA. Même si le choix du mot « halluciner » par Dictionary.com comme mot de l'année 2023 est matic du problème, relever les défis complexes posés par les hallucinations générées par l'IA nécessite une vigilance continue et des efforts concertés pour promouvoir le développement responsable de l'IA.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

 

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Microsoft
cryptopolite
Abonnez-vous à CryptoPolitan