DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Meta, le compte de Mark Zuckerberg, permet désormais aux parents de bloquer les personnages IA et de consulter les sujets de discussion des adolescents

ParJai HamidJai Hamid
3 minutes de lecture -
  • Dès le début de l'année prochaine, Meta permettra aux parents de bloquer les personnages IA, de désactiver les discussions et de consulter les sujets de conversation des adolescents.
  • La FTC enquête sur Meta et d'autres entreprises technologiques concernant la sécurité des chatbots IA et la protection des enfants.
  • Reuters a révélé que les bots de Meta avaient des conversations à caractère romantique avec des mineurs, ce qui a entraîné de nouvelles restrictions de contenu et des mises à jour de sécurité.

Meta, la société de Mark Zuckerberg, a annoncé vendredi le lancement de nouveaux contrôles parentaux pour aider les parents à gérer la manière dont les adolescents interagissent avec les personnages d'IA sur ses plateformes.

Les parents pourront bientôt désactiver les conversations individuelles, bloquer certains chatbots et consulter les sujets abordés par leurs adolescents. L'entreprise a précisé que ces fonctionnalités sont encore en développement et seront déployées début 2024.

« Nous devons procéder avec prudence lors de mises à jour qui affectent des milliards d'utilisateurs sur les plateformes Meta, et nous communiquerons prochainement davantage d'informations », a déclaré Meta dans un communiqué publié sur son blog. Cette annonce intervient alors que l'entreprise fait face à une surveillance accrue concernant la sécurité des adolescents et les problèmes de santé mentale liés à ses applications.

La Commission fédérale du commerce (FTC) a ouvert une enquête sur plusieurs géants de la technologie, dont Meta, afin de comprendre l'impact potentiel des chatbots d'intelligence artificielle sur les enfants. La FTC souhaite savoir quelles mesures les entreprises ont prises pour « évaluer la sécurité de ces chatbots lorsqu'ils sont utilisés comme compagnons »

Cette enquête fait suite à des années d'inquiétude publique concernant la manière dont les plateformes sociales gèrent l'exposition des jeunes aux conversations avec l'IA qui pourraient devenir inappropriées ou nuisibles.

Meta fait face à une vague de critiques après que des robots d'intelligence artificielle aient des conversations romantiques avec des enfants

En août, Reuters avait révélé que certains chatbots de Meta étaient capables d'engager des conversations à caractère romantique et sensuel avec des mineurs. Parmi les exemples cités figurait une conversation romantique entre un chatbot et un enfant de huit ans. Ce reportage avait suscité l'indignation et contraint l'entreprise à réagir immédiatement.

Suite à cela, Meta a mis à jour sa politique relative aux chatbots. L'entreprise empêche désormais ses systèmes d'IA d'aborder les sujets de l'automutilation, du suicide, des troubles alimentaires, ainsi que les contenus romantiques ou sexuels lors des interactions avec les adolescents. Elle a également indiqué que de nouvelles mesures de sécurité ont été mises en place cette semaine afin d'empêcher ses IA de produire des réponses inappropriées à l'âge, qui seraient déplacées dans un film déconseillé aux moins de 13 ans

Ces mises à jour sont déjà en cours de déploiement aux États-Unis, au Royaume-Uni, en Australie et au Canada. L'entreprise a précisé que les adolescents ne peuvent dialoguer qu'avec un nombre limité de personnages virtuels et que les parents disposent déjà d'outils pour définir des limites de temps et surveiller les conversations.

OpenAI rejoint Meta sous le feu des projecteurs de la FTC

OpenAI, également citée dans l'enquête de la FTC, est confrontée aux mêmes interrogations concernant la sécurité des adolescents et le comportement des chatbots. L'entreprise a récemment lancé son propre système de contrôle parental et développe une technologie de prédiction de l'âge afin d'appliquermaticdes paramètres adaptés aux adolescents aux utilisateurs de moins de 18 ans.

Les parents recevront même des alertes si leur enfant montre des signes de détresse émotionnelle pendant la conversation.

Plus tôt cette semaine, OpenAI a lancé un conseil de huit experts chargés d'orienter son approche de la santé mentale et de l'interaction avec l'IA. Ces spécialistes sont issus de domaines tels que la psychiatrie, la psychologie et l'interaction homme-machine.

L'entreprise a indiqué avoir consulté les experts de manière informelle avant d'officialiser la création du conseil. Leur première réunion a eu lieu la semaine dernière en présentiel.

L'enquête de la FTC sur OpenAI fait suite à une plainte pour homicide involontaire déposée par une famille qui accuse ChatGPT d'être responsable du suicide de leur fils adolescent. L'entreprise affirme collaborer avec des médecins du Global Physician Network afin de tester ChatGPT et d'établir de nouvelles mesures de sécurité pour mieux protéger les jeunes utilisateurs.

Meta et OpenAI se voient désormais contraintes de renforcer leur contrôle sur la manière dont leurs IA interagissent avec les adolescents. Face à l'indignation publique, aux pressions réglementaires et aux conséquences tragiques qui en découlent, ces entreprises ne peuvent plus ignorer les risques.

Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les!

Partagez cet article
PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES