L'organisme national de normalisation du Royaume-Uni, le British Standards Institution (BSI), s'apprêterait à dévoiler une nouvelle norme pour les entreprises qui auditent de manièredentles outils d'intelligence artificielle afin de protéger l'innovation.
La nouvelle norme, baptisée norme britannique d'audit de l'IA, visera à lutter contre les pratiques non réglementées et potentiellement risquées du secteur émergent de l'IA en introduisant un cadre structuré pour l'audit des systèmes d'IA.
La norme entrera en vigueur le 31 juillet
Selon le BSI, il existe désormais des « centaines » de groupes « non contrôlés » proposant des audits qui prétendent évaluer si les entreprises utilisant des modèles d'IA dans des cas d'utilisation traditionnels et novateurs le font de manière fiable, équitable et sûre.
De nombreux groupes qui vendent des audits d'IA développent également leurs propres technologies d'IA, « ce qui soulève des inquiétudes quant à leur indépendance et à leur rigueur », a déclaré le BSI.
Selon l' institut , la norme sera lancée le 31 juillet et constitue le premier ensemble international d'exigences visant à normaliser la manière dont les cabinets d'assurance vérifient si les entreprises se conforment aux normes de gestion de l'IA.
Cette nouvelle intervient quelques semaines après la publication, le 26 juin 2025, par le Conseil britannique de l'information financière (FRC) de ses recommandations sur l'IA dans l'audit. Ces recommandations proposent une approche cohérente pour la mise en œuvre des outils d'IA dans les audits et soulignent également les exigences en matière de documentation afin de soutenir l'innovation dans la profession d'auditeur.
La nouvelle norme britannique est cruciale
Si l'intelligence artificielle a conquis le monde, sa vulnérabilité aux erreurs telles que les hallucinations et autres dangers inhérents à cette technologie a accru l'importance cruciale des services d'assurance qualité en matière d'IA. Les entreprises doivent également veiller au respect des réglementations internationales, comme la directive européenne sur l'IA , ce qui rend les services d'assurance qualité indispensables.
Des sociétés spécialisées ont fait leur apparition pour profiter de la hausse de la demande, se mesurant à des concurrents plus importants, notamment les quatre grands cabinets d'audit.
Bien que ce secteur soit encore émergent, le marché de l'assurance par l'IA génère déjà un chiffre d'affaires brut de plus d'un milliard de livres sterling au Royaume-Uni. Il est donc logique que les autorités de régulation aient tiré la sonnette d'alarme face au manque de normalisation dans ce secteur.
Cela signifie qu'une entreprise peut toujours proposer des services d'assurance qui se limitent à des conseils superficiels, ou simplement à vérifier si l'IA est conforme à une législation particulière.
Mark Thirlwell, directeur mondial du numérique chez BSI, a déclaré : « Les entreprises doivent s'assurer que l'évaluation de leur système de gestion de l'IA soit réalisée de manière rigoureuse, cohérente et uniforme. »
Le BSI espère que cette norme aidera les organismes de réglementation, les clients et les investisseurs en leur permettant de distinguer les IA ayant fait l'objet d'une certification par un fournisseur agréé, contribuant ainsi à « soutenir une innovation responsable en matière d'IA »
Cette norme est désormais présentée comme une « avancée majeure pour l'écosystème d'assurance de l'IA », car elle précise quelles entreprises sont qualifiées pour certifier les systèmes d'IA selon les normes ISO.
Inioluwa Deborah Raji, chercheuse à l'UC Berkeley spécialisée dans les audits et les évaluations de l'IA, a souligné que « de nombreuses sociétés d'assurance utilisent des systèmes propriétaires pour auditer l'IA » et que, bien que les entreprises « soient prêtes à payer pour évaluer par rapport à des normes [propriétaires] », elle a averti qu'il n'existe actuellement aucun moyen de vérifier de l'extérieur la qualité de ces normes.

