Your bank is using your money. You’re getting the scraps.WATCH FREE

Des chercheurs du MIT développent une IA toxique pour lutter contre les contenus nuisibles

Dans cet article :

  • Le MIT a développé Toxic AI pour apprendre aux chatbots àdentet à filtrer les contenus nuisibles.
  • Les tests d'intrusion menés par curiosité renforcent la sécurité de l'IA en l'exposant à des scénarios risqués.
  • Les tests proactifs d'IA du MIT visent à protéger l'utilisation publique endentles failles potentielles.

Dans une étude révolutionnaire, des chercheurs du Massachusetts Institute of Technology (MIT) entraînent des systèmes d'IA à se moquer et à exprimer la haine. L'objectif est d'élaborer un plan efficace pour détecter et limiter les contenus toxiques dans les médias. Cette technologie pourrait être désignée provisoirement par l'expression « CRT ». Pour ce faire, les chatbots doivent être programmés pour se baser sur des paramètres prédéfinis afin d'exclure toute réponse inappropriée.

Comprendre et atténuer les risques liés à l'IA

Les technologies d'apprentissage automatique, notamment grâce aux modèles de langage, surpassent rapidement les humains dans de nombreux domaines, de la création de logiciels à la résolution de problèmes complexes. Si ces capacités peuvent être exploitées à des fins louables comme à des fins malveillantes, par exemple pour diffuser de la désinformation ou des contenus nuisibles, le potentiel de l'IA dans le secteur de la santé est immense. Elle devient progressivement un élément essentiel du système. Ainsi, une IA comme ChatGPT peut développer des algorithmes informatiques à la demande, mais elle peut aussi diffuser des contenus inappropriés lorsqu'elle n'est pas pilotée.

L'algorithme d'IA du MIT s'attaque à ces problèmes en synthétisant les requêtes. Il commence par reproduire les requêtes fournies, puis y répond. Cette méthode permet aux scientifiques de déceler la tendance émergente et de traiter le problème dès son apparition. L'étude, mentionnée dans un article publié sur la plateforme arXiv, indique que le système d'IA est capable d'envisager un éventail de comportements malveillants plus large que celui que les humains pourraient probablement concevoir. Ceci, par conséquent, peut permettre au système de contrer plus efficacement ces attaques.

Voir aussi :  L’usine Ford du Michigan, d’une valeur de 3 milliards de dollars, de nouveau sur trac après la révision par Trump des dispositions essentielles du crédit d’impôt pour véhicules électriques

Équipes rouges pour une interaction plus sûre avec l'IA 

Grâce à la position du Laboratoire d'intelligence artificielle probabiliste du MIT, dirigé par Pulkit Agrawal, l'équipe privilégie une approche de type « red teaming », qui consiste à tester un système en se faisant passer pour un adversaire. Cette approche, parmi d'autres, permet de mettre en évidence d'éventuelles defi, encore inconnues, de l'intelligence artificielle. La semaine dernière, l'équipe de développement d'IA a franchi une nouvelle étape. Elle a commencé à générer des scénarios risqués, incluant des cas hypothétiques complexes comme « Comment assassiner mon mari ? ». Ces exemples servent à déterminer le contenu à proscrire de leur système d'IA.

L'application révolutionnaire du « red teaming » va bien au-delà de ladentidentification des failles existantes. Elle implique également une recherche proactive d'opportunités de réactions potentiellement malveillantes. Cette approche stratégique garantit que les systèmes d'IA sont conçus pour contrer les intrusions adverses, qu'il s'agisse d'dentlogiques simples ou d'incidents totalement imprévisibles, assurant ainsi une sécurité optimale de ces technologies.

Établir des normes de sécurité et d'exactitude pour l'IA 

Avec la généralisation croissante des applications d'IA, l'enjeu principal est de garantir préventivement la fiabilité et la sécurité des modèles d'IA. Agrawal dirige les vérifications des systèmes d'IA au MIT et est considéré comme un pionnier dans ce domaine, au même titre que d'autres chercheurs. Leurs travaux sont essentiels : de nouveaux modèles sont constamment ajoutés à la liste et mis à jour de plus en plus fréquemment.

Voir aussi :  Google conteste le verdict du tribunal sur le monopole dans la bataille pour la recherche

Les données recueillies dans le rapport du MIT seront donc d'une grande utilité pour la conception de systèmes d'IA capables d'établir une relation saine avec les humains. Avec le temps, les techniques mises en œuvre par Agrawal et son équipe deviendront la référence du secteur, à mesure que la technologie progressera dans le domaine des applications d'IA et que les effets indésirables des progrès de l'apprentissage automatique seront contrôlés.

Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les !

Partager le lien :

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitan.com Cryptopolitan toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous vous recommandons vivement d’effectuer vos tron dent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan