DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Des chercheurs du MIT annoncent un répertoire des risques liés à l'IA

ParEnacy MapakameEnacy Mapakame
3 minutes de lecture -
  • Cela a permis de constituer une base de données de plus de 700 risques uniques liés à l'IA
  • Ce référentiel aidera toutes les parties prenantes à prendre des décisions éclairées dans le cadre de leurs opérations.
  • Le MIT a classé les risques liés à l'IA en sept domaines différents, dont la désinformation et les acteurs malveillants.

Des chercheurs du MIT et d'autres organisations ont créé le Référentiel des risques liés à l'IA, une vaste base de données recensant les risques documentés amplifiés par les systèmes d'IA. Cette initiative intervient alors que la technologie évolue rapidement, tout comme les risques associés à l'utilisation de ces systèmes.

Ce référentiel vise à aider les décideurs de diverses institutions, telles que les gouvernements, les organismes de recherche, les entreprises et l'industrie, à évaluer les risques émergents associés à l'IA, malgré son potentiel transformateur.

Le référentiel fournit une documentation ordonnée des risques liés à l'IA

Alors que plusieurs organisations et chercheurs ont reconnu l'importance de résoudre les risques liés à l'IA, les efforts déployés pour documenter et catégoriser ces risques ont, dans une large mesure, été maladroits, aboutissant à un paysage fragmenté de systèmes de classification contradictoires.

« Nous souhaitions un aperçu complet des risques liés à l’IA afin de l’utiliser comme liste de contrôle », a déclaré Peter Slattery, futur postdoctorant et chef de projet chez MIT FutureTech, à VentureBeat.

« Mais lorsque nous avons examiné la documentation existante, nous avons constaté que les classifications de risques existantes étaient comme les pièces d'un puzzle : intéressantes et utiles individuellement, mais incomplètes. »

Slattery.

Le référentiel de risques liés à l'IA répond à ce défi en fusionnant des informations provenant de 43 taxonomies existantes, notamment des articles évalués par des pairs, des prépublications, des actes de conférence et des rapports.

Ce processus de sélection rigoureux a permis la création d'une base de données recensant plus de 700 risques exclusifs. Le référentiel utilise un système de classification bidimensionnel.

Premièrement, les risques sont classés en fonction de leurs causes, en tenant compte de l'entité responsable (humaine ou IA), de l'intention (non intentionnelle ou internationale) et du moment où ils surviennent (après le développement ou avant le déploiement).

Selon le MIT, cette catégorisation sous-jacente aide à comprendre les situations et les mécanismes par lesquels les risques liés à l'IA peuvent apparaître.

Des chercheurs du MIT ont classé les risques liés à l'IA en sept catégories

Par ailleurs, les risques sont classés en sept domaines différents, notamment la désinformation et les acteurs malveillants, le mésusage, la discrimination et la toxicité, la protection de la vie privée et la sécurité.

Le référentiel des risques liés à l'IA est conçu comme une base de données évolutive et est accessible au public ; les institutions peuvent le télécharger pour leur usage.

Les équipes de recherche peuvent prévoir de mettre à jour régulièrement la base de données en y intégrant les nouveaux risques, les dernières découvertes et les tendances émergentes.

Le référentiel des risques liés à l'IA se veut également une ressource pratique pour les entreprises de divers secteurs. Pour les institutions développant des systèmes d'IA, il constitue une liste de contrôle précieuse pour évaluer et atténuer les risques.

« Les organisations utilisant l’IA pourraient tirer profit de l’utilisation de la base de données sur les risques liés à l’IA et des taxonomies comme base utile pour évaluer et gérer de manière exhaustive leur exposition aux risques. »

Des chercheurs du MIT.

« Ces taxonomies pourraient également s'avérer utiles pourdentles comportements spécifiques à adopter afin d'atténuer des risques spécifiques », ont ajouté les chercheurs.

Une organisation qui met en place un système de recrutement basé sur l'IA, par exemple, peut utiliser ce référentiel pour identifier les risques potentiels liés à la discrimination et aux préjugés.

Ainsi, une entreprise utilisant l'IA pour la modération de contenu peut tirer parti du domaine de la « désinformation » pour comprendre les risques potentiels liés au contenu généré par l'IA et mettre en place les filets de sécurité nécessaires.

Des chercheurs du MIT ont collaboré avec des collègues de l'Université du Queensland, du Future of Life Institute, de la KU Leuven et de la start-up d'IA Harmony Intelligence pour explorer les bases de données universitaires et récupérer des documents relatifs aux risques liés à l'IA.

Les chercheurs ont également révélé que le référentiel de risques liés à l'IA alimentera d'autres recherches à mesure qu'ellesdentd'autres lacunes nécessitant une attention particulière.

« Nous utiliserons ce référentiel pourdentles lacunes ou les déséquilibres potentiels dans la manière dont les organisations gèrent les risques », a déclaré Neil Thompson, directeur du MIT FutureTech Lab.

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES