Tout n'est pas rose, car certains utilisateurs estiment que la volonté des bots féminins de se plaire mutuellement renforce des stéréotypes de genre néfastes. Dans le film Her, Joaquin Phoenix incarne un homme épris qui développe des sentiments pour l'assistante virtuelle futuriste de son téléphone, à laquelle prête sa voix à la sublime Scarlett Johansson. La réalité rejoint la fiction, et les internautes s'amusent de la nouvelle version de ChatGPT .
Dilemme de l'objectification de l'IA
Cette semaine, l'actualité a été marquée par la création de GPT-4o, présenté comme une version plus sophistiquée des assistants numériques qui ont fait fureur il y a dix ans. Imaginez Siri capable de parler en permanence (et de « voir » à travers votre caméra). À l'instar d'Apple avec son assistant, OpenAI a humanisé le bot grâce à une voix féminine qui évoque l'alter ego numérique de Scarlett Johansson : curieuse et attentive. Quelle a été la réaction d'Internet ? À en juger par les mèmes parfois douteux apparus après la révélation du bot, on peut dire que son lancement a suscité un enthousiasme certain, peut-être un peu trop ostentatoire.
Les utilisateurs de X (anciennement Twitter) s'amusent à imaginer tomber amoureux et même coucher avec le robot bavard qu'on leur offre : le chat qui efface les écrans ! Certains tentent d'ailleurs d'expliquer à leurs amis ou partenaires comment ils sont tombés sous le charme de cette nouvelle personne étrange (on adorerait tous assister à cette discussion gênante).
« Salut ChatGPT, que s'est-il passé hier soir ? » pic.twitter.com/UZIAFyCSsB
— Jack Forge (@TheJackForge) 13 mai 2024
D'un autre côté, certains souhaitent que le bot modère le ton trop séducteur afin de pouvoir se concentrer sur leurs tâches. Les mèmes absurdes mettent en scène les icônes culturelles les plus populaires d'Internet, du personnage fictif et déjanté de Patrick Bateman au personnage honteux de Ben Affleck. De plus, on y trouve de nombreuses références aux personnages de Phoenix et Johansson. Dans un tweet devenu célèbre, ce dernier est détourné pour parodier la sénatrice républicaine Katie Britt dans l'émission Saturday Night Live et se moque du ton « trop séducteur » de ChatGPT.
Biais sexistes dans les assistants virtuels
Est-ce simplement un jeu innocent ou le début de notre déclin collectif ? Aujourd’hui, ces deux phénomènes de société, les petites amies virtuelles et le bien-être, répliques numériques des influenceurs, nous plongent dans un univers digne de Black Mirror. La réaction sexuelle risque fort de surprendre OpenAI. Figure emblématique de l’IA moderne, OpenAI est parfaitement tron que sa technologie est détournée pour lutter contre la solitude. Il y a quelques mois, l’entreprise a commencé à retirer de son App Store de nombreuses applications créées par ses utilisateurs.
À l'époque, l'entreprise affirmait que les outils étaientmaticsupprimés s'ils contrevenaient à ses conditions d'utilisation, qui interdisent les bots à caractère intime. En revanche, le nouveau ChatGPT est tout à fait innocent, mais cela n'a pas empêché les internautes les plus mal intentionnés de projeter leurs fantasmes les plus obscènes sur ce pauvre bot.
Bien sûr, plus sérieusement, certains perçoivent la personnification du bot comme plus féminine. Les votants masculins, quant à eux, attribuent à une voix féminine une dimension qu'ils jugent compatissante et soumise ; par conséquent, le bot serait un autre exemple de l'insensibilité de l'industrie informatique, encore largement dominée par les hommes.
Cette condamnation reflète l'inquiétude des chercheurs en IA quant aux effets des biais qui pourraient se refléter dans leurs travaux et influencer notre perception du monde, notamment celle des jeunes utilisateurs qui grandissent avec cette technologie. Concernant les assistants numériques, le de l'ONU de 2019 a démontré que les voix féminines par défaut utilisées par les chatbots renforcent les stéréotypes de genre néfastes.

