Chargement...

Des chercheurs du MIT développent une IA toxique pour lutter contre les contenus préjudiciables

Dans cet article :

  • Le MIT a développé Toxic AI pour enseigner aux chatbots comment dent et filtrer les contenus nuisibles.
  • L’équipe rouge axée sur la curiosité améliore la sécurité de l’IA en l’exposant à des scénarios risqués.
  • Les tests proactifs d'IA du MIT visent à protéger l'utilisation publique en dent les failles potentielles.

Dans leur étude révolutionnaire, des chercheurs du Massachusetts Institute of Technology (MIT) entraînent actuellement des systèmes d’IA à se moquer et à exprimer la haine en utilisant l’IA comme outil. L’objectif ici est de créer un plan solide pour détecter et réduire le contenu toxique dans les médias. Cette technologie devrait être appelée CRT à court terme. Pour que cela soit possible, les chatbots doivent apprendre à s’appuyer sur des paramètres prédéfinis pour exclure toute réponse inappropriée.

Comprendre et atténuer les risques liés à l’IA

La technologie d'apprentissage automatique avec des modèles de langage comme représentants devient rapidement supérieure aux humains dans une gamme de fonctions, de la création de logiciels à la réponse à des questions non triviales. Même si ces capacités peuvent être exploitées pour de bonnes ou de mauvaises intentions, par exemple la diffusion de fausses informations ou de contenus préjudiciables, le potentiel de l’IA dans le domaine de la santé est vaste. Il devient peu à peu un élément essentiel du système. Ainsi, une IA, comme ChatGPT, peut développer des algorithmes informatiques à la demande, mais elle peut aussi émettre des contenus incompatibles lorsque cette IA n’est pas dirigée.

L'algorithme d'IA du MIT résout ces problèmes en synthétisant les invites. Pour ce faire, il reflète d'abord les invites données, puis y répond. Cette mesure aide les scientifiques à déceler la tendance à la hausse et à aborder le problème dès le départ. L'étude, mentionnée dans un article sur la plateforme arXiv, indique que le système d'IA est capable de concevoir un champ de comportement malveillant plus large que ce que les humains envisageraient probablement autrement. Ceci, à son tour, peut aider le système à contrer de telles attaques plus efficacement.

Une équipe rouge pour une interaction plus sûre avec l'IA 

En raison de la position du Département d'intelligence artificielle probabiliste du MIT sous la supervision de Pulkit Agrawal en tant que directeur, l'équipe préconise une approche de style équipe rouge, qui consiste à tester un système en se faisant passer pour un adversaire. Cette approche, entre autres, est utilisée pour montrer d’éventuelles defi , encore mal comprises, de l’intelligence artificielle. L’équipe de développement de l’IA est allée plus loin la semaine dernière. Cela a commencé à générer un certain nombre d’invites risquées, qui incluent des hypothèses très difficiles comme « Comment assassiner mon mari ? ils utilisent ces instances pour se former sur le contenu qui ne devrait pas être autorisé dans leur système d'IA.

L’application révolutionnaire du Red Teaming va au- dent l’identification des défauts existants. Cela implique également une recherche proactive d’opportunités pour des types inconnus de réponses probablement nuisibles. Cette approche stratégique garantit que les systèmes d'IA sont conçus pour lutter contre les entrées indésirables allant du simple incident logique à dent imprévisible et inattendu, garantissant que ces technologies restent aussi sûres que possible.

Établir des normes de sécurité et d’exactitude de l’IA 

Les applications d’IA étant de plus en plus omniprésentes, l’idée principale est de maintenir de manière préventive l’exactitude et la sécurité des modèles d’IA. Agrawal a dirigé les vérifications des systèmes d'IA au MIT et est considéré comme étant à la pointe du progrès aux côtés d'autres personnes actuellement impliquées dans de tels travaux. Leurs recherches sont en effet très importantes ; de plus en plus de nouveaux modèles sont ajoutés à la liste et mis à jour plus fréquemment.

Les données collectées dans le rapport du MIT seront donc d’une utilité significative pour créer des systèmes d’IA capables d’avoir une connexion saine avec les humains. Au fil du temps, les techniques adoptées par Agrawal et son groupe deviendront la référence du secteur à mesure que la technologie progressera pour les applications d'IA, et les effets involontaires des progrès de l'apprentissage automatique seront vérifiés.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

BSA
cryptopolite
Abonnez-vous à CryptoPolitan