Your bank is using your money. You’re getting the scraps.WATCH FREE

Google reconnaît les erreurs de Gemini AI en matière de diversité raciale et apporte rapidement des changements suite à la polémique

Dans cet article :

  • L'intelligence artificielle Gemini de Google, conçue pour diversifier la génération d'images, a été critiquée pour sa représentation inexacte et systématique des personnages historiques, soulevant des inquiétudes quant à la représentation raciale.
  • Des utilisateurs ont signalé l'incapacité de Gemini à générer des images précises de personnages historiques blancs, ce qui a suscité la controverse et des accusations de résultats algorithmiques biaisés.
  • Google reconnaît son erreur et promet des changements immédiats, en mettant en place des restrictions sur la génération d'images afin d'éviter de nouvelles réactions négatives.

Récemment, Google LLC s'est retrouvé au cœur d'une controverse concernant son intelligence artificielle générative, Gemini AI. Le géant technologique a reconnu les lacunes de son générateur d'images, admettant que ses tentatives de promouvoir la diversité grâce à l'IA de Gemini ont eu des conséquences inattendues. L'expression « Gemini AI » est devenue synonyme de discussions sur la diversité raciale dans les images générées par l'IA, suscitant des débats et incitant Google à réagir rapidement face à ce problème.

Les conséquences raciales involontaires de Gemini AI

L'ambitieux projet de Google visant à intégrer la diversité dans son processus de génération d'images grâce à l'intelligence artificielle Gemini a suscité l'indignation et de nombreuses critiques. Les utilisateurs s'inquiètent de l'exactitude historique des images produites par Gemini, citant des cas où des figures historiques importantes sont représentées de manière inexacte, notamment en ce qui concerne leur origine ethnique. Des pères fondateurs des États-Unis à la lignée des papes, ces inexactitudes ont alimenté le mécontentement des utilisateurs. La représentation par l'IA de personnalités aussi diverses que les Vikings et les joueurs de hockey canadiens a également été critiquée, de nombreux internautes relevant des erreurs systématiques en matière d'origine ethnique et de genre.

La controverse autour de Gemini AI s'est intensifiée lorsque des utilisateurs ont signalé des difficultés rencontrées par l'IA pour générer des images fidèles de personnages historiques blancs. À l'inverse, elle semblait parfaitement capable de produire des images de personnes noires sans problème, soulevant des questions quant aux biais potentiels de l'algorithme. Une déclaration révélatrice d'un employé de Google a mis en lumière les difficultés rencontrées pour répondre à ces préoccupations, reconnaissant la complexité de faire en sorte que Gemini AI reconnaisse l'existence de personnes blanches – une révélation qui a alimenté la polémique.

Voir aussi :  Musk n’a pas l’intention de quitter Tesla au cours des cinq prochaines années.

Réponse et mesures correctives de Google

Face aux critiques croissantes, Google a pris des mesures proactives pour remédier aux lacunes de l'IA Gemini. Jack Krawczyk, directeur principal de la gestion des produits Gemini Experiences chez Google, a publié une déclaration reconnaissant la nécessité d'améliorations immédiates. Google a mis en œuvre des mesures visant à limiter la génération d'images susceptibles d'alimenter la polémique ; Gemini refuse désormais de créer des représentations de figures controversées telles que les nazis, les Vikings ou lesdentaméricains du XIXe siècle. Ces mesures témoignent de l'engagement de Google à rectifier la situation et à atténuer les préjudices potentiels causés par les conséquences imprévues de l'IA.

Alors que Google tente de gérer les conséquences de la IA Gemini , cet incident dent des questions plus larges sur l'intersection entre technologie, diversité et biais algorithmiques. Bien que l'entreprise ait pris des mesures décisives pour remédier au problème, des inquiétudes persistent quant aux facteurs sous-jacents contribuant à de tels faux pas dans le développement de l'IA. Comment les entreprises technologiques peuvent-elles trouver un équilibre entre la promotion de la diversité et la garantie d'une équité algorithmique dans les applications basées sur l'IA ? Tandis que les discussions sur la représentation raciale dans l'IA se poursuivent, le fiasco de Gemini rappelle avec force la complexité inhérente à la recherche d'une technologie inclusive.

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter .

Partager le lien :

Avertissement. Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitan décline toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous vous recommandons vivement d'effectuer vos tron dent et/ou de consulter un professionnel qualifié avant toute décision d'investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan