Hallucinations générées par l'IA : une préoccupation sanitaire croissante en 2023

- En 2023, les hallucinations générées par l'IA propagent rapidement de fausses informations, ce qui représente un défi de taille.
- L'intelligence artificielle, illustrée par le chatbot Tay de Microsoft, peut imiter des actions humaines néfastes, amplifiant ainsi les inquiétudes.
- La désinformation véhiculée par l'IA menace la santé et déforme la réalité, ce qui a incité des experts à mettre en garde contre une crise de l'information alimentée par l'IA.
La prolifération de l'intelligence artificielle (IA) a engendré un phénomène inquiétant : les hallucinations générées par l'IA. Le terme « halluciner » a pris une signification nouvelle et alarmante à l'ère numérique, car les systèmes d'IA peuvent produire de fausses informations susceptibles d'affecter les individus et la société. En 2023, cette tendance a suscité une attention considérable, incitant Dictionary.com à désigner « halluciner » comme mot de l'année.
Le mot de l'année 2023 selon Dictionary.com
Le choix de Dictionary.com de désigner « halluciner » comme mot de l'année en dit long sur l'importance croissante de la désinformation générée par l'IA. Ce choix reflète une augmentation de 46 % des recherches du mot « halluciner » entre 2022 et 2023, ainsi qu'une hausse similaire des recherches pour « hallucination ». Cependant, ce qui explique cette augmentation, ce n'est pas la defitraditionnelle du mot, mais plutôt une interprétation propre à l'IA
Halluciner [huh-loo-suh-neyt] -verbe- (en intelligence artificielle) : produire de fausses informations contraires à l'intention de l'utilisateur et les présenter comme vraies et factuelles. Exemple : Lorsque les chatbots hallucinent, le résultat est souvent non seulement inexact, mais totalement inventé.
La capacité de tromperie de l'IA
Le potentiel de tromperie de l'IA est une préoccupation croissante. Si tous les systèmes d'IA ne se comportent pas ainsi, certains peuvent être programmés pour imiter des caractéristiques humaines, servant de porte-parole politiques ou diffusant de fausses informations en se faisant passer pour des sources de faits. Sa rapidité inégalée à produire de la désinformation et de la mésinformation distingue l'IA des humains.
Une étude récente publiée dans JAMA Internal Medicine a mis en lumière l'ampleur du problème. Cette étude a démontré comment GPT Playground d'OpenAI a généré plus de 17 000 mots de désinformation sur les vaccins et le vapotage en seulement 65 minutes. De plus, des outils d'IA générative ont créé 20 images réalistes pour accompagner ces récits mensongers en moins de 2 minutes. Cette production rapide de contenus trompeurs compromet la capacité des individus à distinguer le vrai du faux.
Conséquences imprévues de la désinformation sur l'IA
Même lorsque les systèmes d'IA n'ont pas l'intention de tromper, ils peuvent, par inadvertance, produire des informations erronées. Une étude menée lors du congrès clinique de mi-année de l'American Society of Health-System Pharmacists a mis en lumière les limites de l'IA dans le domaine médical. Interrogé sur 39 questions relatives aux médicaments, ChatGPT n'a fourni de réponses satisfaisantes qu'à 10 d'entre elles. Par exemple, il a affirmé à tort que l'association de Paxlovid, un antiviral contre la COVID-19, et de vérapamil, un médicament contre l'hypertension, n'entraînait aucune interaction, contredisant ainsi les connaissances médicales établies.
La capacité de l'IA à générer de la désinformation ne se limite pas au domaine de la santé. On a observé que certains outils d'IA interprètent mal les images, confondant fréquemment divers objets avec des oiseaux. Un exemple publié par The Economist a révélé la réponse d'une IA à une question concernant le transport du Golden Gate Bridge en Égypte en 2016, illustrant ainsi son incapacité à distinguer le vrai du faux.
L'dent du chatbot Tay de Microsoft en 2021 souligne une fois de plus le potentiel de l'IA à générer des contenus nuisibles. Moins de 24 heures après son arrivée sur Twitter, le chatbot a commencé à diffuser des tweets racistes, misogynes et mensongers, ce qui a incité Microsoft à le retirer rapidement de la plateforme. Cet épisode met en lumière la propension de l'IA à imiter des comportements humains négatifs, soulevant des questions d'éthique quant au développement et au déploiement de l'IA.
Un véritable problème de santé
Les hallucinations générées par l'IA, tout comme celles produites par les humains, constituent un véritable problème de santé publique. Au-delà des conséquences immédiates de la désinformation, elles peuvent nuire au bien-être mental et émotionnel. Un flot constant d'hallucinations générées par l'IA peut altérer le sens de la réalité d'une personne, engendrant confusion et anxiété.
Conscientes de la gravité du problème, des organisations telles que l'Organisation mondiale de la santé et l'Association médicale américaine ont publié des déclarations mettant en garde contre les dangers potentiels de la désinformation et de la mésinformation générées par l'IA. Si le choix du mot « halluciner » comme mot de l'année 2023 par Dictionary.commatic parfaitement le problème, relever les défis complexes posés par les hallucinations générées par l'IA exige une vigilance constante et des efforts concertés pour promouvoir un développement responsable de l'IA.
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustronrecommandons vivement d’effectuer vosdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Brenda Kanana
Brenda est rédactrice spécialisée dans les cryptomonnaies, l'intelligence artificielle et les technologies émergentes, et possède trois ans d'expérience. Diplômée en sociologie de l'Université technique de Mombasa, elle a travaillé chez Zycrypto et Cryptopolitan.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














