Chargement...

Un rapport de Stanford révèle la pornographie juvénile dans les données de formation en IA

Dans cet article :

  • Stanford découvre de la pédopornographie dans les données de formation de l'IA, soulevant des problèmes de sécurité.
  • Les outils technologiques comme PhotoDNA sont cruciaux pour la sécurité des ensembles de données.
  • La réponse mondiale varie, l’accent étant mis sur la sécurité et l’éthique de l’IA.

L'Observatoire Internet de Stanford a fait une découverte inquiétante : plus de 1 000 fausses images d'abus sexuels sur des enfants dans LAION-5B, un ensemble de données utilisé pour former les générateurs d'images d'IA. Cette découverte, rendue publique en avril, a soulevé de sérieuses inquiétudes quant aux sources et aux méthodes utilisées pour compiler les supports de formation en IA.

LAION-5B, associé au créateur d'images Stable Diffusion AI de Stability AI, basé à Londres, a accumulé ces images en échantillonnant le contenu des médias sociaux et des sites Web pornographiques. La découverte d’un tel contenu dans les supports de formation en IA est alarmante, compte tenu de l’utilisation répandue de ces plateformes et de leur influence potentielle.

Relever le défi avec la technologie

Les chercheurs de Stanford, dans leur quête pour dent ces images, n’ont pas vu directement le contenu abusif. Au lieu de cela, ils ont utilisé la technologie PhotoDNA de Microsoft, un outil conçu pour détecter les images d'abus sur enfants en faisant correspondre les images hachées avec le contenu abusif connu de diverses bases de données.

Les conclusions de l'équipe de Stanford, communiquées aux organisations à but non lucratif concernées aux États-Unis et au Canada, soulignent le besoin urgent de mesures plus strictes dans la conservation des ensembles de données de formation à l'IA. Les chercheurs suggèrent l’utilisation d’outils comme PhotoDNA pour les futures compilations d’ensembles de données afin de filtrer les contenus nuisibles. Cependant, ils soulignent également les défis liés au nettoyage des ensembles de données ouverts, notamment en l’absence d’une autorité d’hébergement centralisée.

En réponse au rapport, LAION, ou réseau ouvert d'intelligence artificielle à grande échelle, a temporairement supprimé ses ensembles de données pour garantir leur sécurité avant de les republier. LAION a souligné sa politique de tolérance zéro à l'égard des contenus illégaux et la nécessité de faire preuve de prudence dans la manipulation de documents aussi sensibles.

Les implications et réponses plus larges

Ce problème ne se limite pas à l’ensemble de données en question. Le rapport de Stanford suggère que même un petit nombre d’images abusives peuvent avoir un impact significatif sur les outils d’IA, leur permettant de générer des milliers de deepfakes. Cela constitue une menace mondiale pour les jeunes et les enfants, car non seulement cela perpétue mais amplifie également les abus contre les véritables victimes.

La ruée vers le marché de nombreux projets d'IA générative a été critiquée, des experts comme David Thiel, technologue en chef de l'Observatoire Internet de Stanford, préconisant une attention plus rigoureuse à la compilation des ensembles de données. Thiel souligne qu’un tel grattage à grande échelle sur Internet devrait être limité aux opérations de recherche et non open source sans un examen approfondi.

À la lumière de ces résultats, Stability AI, un utilisateur important de l'ensemble de données LAION, a pris des mesures pour atténuer les risques d'utilisation abusive. Les versions plus récentes de son modèle Stable Diffusion ont été conçues pour rendre la création de contenu préjudiciable plus difficile. Cependant, une ancienne version publiée l’année dernière présente toujours des risques et est largement utilisée dans d’autres applications.

Les réactions internationales à cette question ont varié. Aux États-Unis, le gouvernement lance un institut de sécurité de l’IA pour évaluer les risques posés par les modèles d’IA. De même, l’Australie met en œuvre de nouveaux algorithmes pour empêcher le partage de matériels d’abus sexuels sur enfants créés par l’IA. En Grande-Bretagne, les principaux développeurs d’IA ont convenu de travailler avec les gouvernements pour tester de nouveaux modèles avant leur lancement.

Le Sommet mondial sur la sécurité de l’IA en Grande-Bretagne a vu la signature de la « Déclaration de Bletchley » par plus de 25 pays, dont les États-Unis et l’Inde, ainsi que l’Union européenne. Cet accord vise à établir une approche commune en matière de surveillance de l’IA, soulignant l’engagement de la communauté internationale à gérer les risques liés à l’IA de manière responsable.

La découverte de pédopornographie dans les ensembles de données de formation à l’IA soulève de profondes préoccupations en matière d’éthique et de sécurité. Il souligne la nécessité de mécanismes de conservation et de surveillance des données plus rigoureux dans le développement des technologies d’IA. Alors que l’IA continue d’évoluer et d’imprégner divers aspects de la vie, il devient de plus en plus crucial de garantir l’utilisation éthique et le déploiement sûr de ces technologies.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Apple ne paie pas OpenAI pour l'intégration de ChatGPT dans iOS18
cryptopolite
Abonnez-vous à CryptoPolitan