Meta Platforms prévoit d'utiliser l'intelligence artificielle pour évaluer les risques liés à la protection de la vie privée et les risques sociétaux. Jusqu'à présent, l'entreprise avait recours à des évaluateurs humains pour analyser les risques associés aux nouveaux produits et fonctionnalités, mais cette nouvelle mise à jour va changer la donne.
D'après des échanges et des documents internes, Meta prévoit d'automatiser 90 % de ses évaluations des risques. Ainsi, les mises à jour critiques des algorithmes, les dispositifs de sécurité et les modifications des règles de partage de contenu sur les plateformes Meta seront majoritairement approuvées par un système d'intelligence artificielle. Ces modifications ne seront donc plus soumises à l'examen d'une équipe chargée d'analyser les éventuels effets indésirables ou détournements de leur utilisation.
Meta prévoit de passer à un système d'évaluation basé sur l'IA
Selon des sources internes à Meta, cette évolution est perçue comme une victoire pour les développeurs, car elle leur offre le temps nécessaire pour déployer les mises à jour et les nouvelles fonctionnalités de leurs applications. Cependant, des inquiétudes persistent au sein de l'entreprise quant à la complexité de la situation. En effet, confier à l' IA des décisions délicates concernant les applications de Meta pourrait avoir des conséquences néfastes. Ce réflexe est partagé par d'anciens et d'actuels employés.
« Dans la mesure où ce processus se traduit concrètement par un lancement plus rapide de nouveaux produits, avec un contrôle et une opposition moins rigoureux, il engendre des risques accrus », a déclaré un ancien cadre de Meta ayant requis l'anonymat par crainte de représailles de la part de l'entreprise. « Les externalités négatives des modifications de produits ont moins de chances d'être prévenues avant qu'elles ne causent des problèmes. »
Dans une récente déclaration, Meta a indiqué avoir investi des milliards de dollars dans la protection de la vie privée de ses utilisateurs. L'entreprise est également sous la surveillance de la Federal Trade Commission (FTC) depuis 2012, cette dernière ayant conclu un accord avec elle concernant le traitement des données personnelles de ses utilisateurs. De ce fait, des évaluations de la protection de la vie privée des produits ont toujours été nécessaires, selon d'anciens et actuels employés de Meta.
Dans son communiqué, l'entreprise a ajouté que les modifications apportées à l'évaluation des risques liés aux produits contribueront à rationaliser la prise de décision, tout en précisant qu'elle continue de faire appel à l'expertise humaine pour les questions nouvelles et complexes. Meta a également indiqué que seules les décisions à faible risque sont actuellement automatisées, mais des documents internes consultés par NPR montrent que Meta étudie la possibilité d'automatiser les évaluations portant sur des aspects sensibles, notamment la sécurité de l'IA, les risques pour les jeunes et une autre catégorie appelée intégrité, qui concerne par exemple la désinformation et les contenus violents.
Dans le système précédent, les mises à jour de produits et de fonctionnalités étaient d'abord soumises à des évaluateurs de risques avant d'être déployées auprès du public. Cependant, d'après une diapositive présentant le nouveau processus, les équipes produit recevront des décisions instantanées après avoir rempli un questionnaire sur le projet. La décision, basée sur l'IA,dentplusieurs zones à risque et les exigences permettant d'y remédier. Avant le lancement de ces projets, l'équipe produit vérifiera également si les exigences ont été respectées.
Ce nouveau système met en évidence le fait que les ingénieurs développant les produits Meta devront évaluer les risques. D'après la présentation, dans certains cas, notamment en présence de nouveaux risques ou lorsqu'une produit a besoin de retours supplémentaires, les projets feront l'objet d'une revue manuelle effectuée par des humains.
Cependant, Zvika Krieger, ancien directeur de l'innovation chez Meta jusqu'en 2022, a souligné que les chefs de produit et les ingénieurs ne sont pas des experts en protection de la vie privée. « La plupart des chefs de produit et des ingénieurs ne sont pas des experts en protection de la vie privée et ce n'est pas l'objet principal de leur travail. Ce n'est pas sur ce critère qu'ils sont principalement évalués et ce n'est pas ce qu'ils sont incités à privilégier », a-t-il déclaré. Il a également ajouté que certaines de ces auto-évaluations sont devenues des exercices qui passent à côté de risques importants.

