Dans un rapport récent, le Bureau de la responsabilité gouvernementale (GAO) a exprimé son inquiétude quant au manque de préparation du gouvernement américain face à l'adoption de l'intelligence artificielle (IA) et à l'absence de normes exhaustives pour son utilisation. Le rapport souligne la croissance rapide de l'adoption de l'IA au sein des agences gouvernementales, mais met en évidence le manque de feuille de route et de normes claires, ce qui pourrait engendrer des risques importants pour la sécurité.
Adoption croissante de l'IA dans les agences gouvernementales
Le rapport exhaustif de 96 pages du GAO constitue un effort considérable pour documenter le rôle croissant de l'IA et de l'apprentissage automatique au sein des agences gouvernementales non militaires. Ce rapport révèle que l'IA est actuellement utilisée de 228 manières différentes au sein du gouvernement fédéral, dont près de 50 % au cours de la seule année écoulée. La majorité de ces utilisations, soit environ 70 %, sont liées à la recherche scientifique ou visent à améliorer la gestion interne des agences.
Il est à noter que, bien que le rapport recense 71 cas d'utilisation différents de l'IA, seuls 10 d'entre eux ont été rendus publics. Parmi les exemples, citons l'utilisation de l'IA par le département du Commerce pour tracdes feux de forêt, le recensement automatisé des populations fauniques et la surveillance de l'activité volcanique mondiale par la NASA grâce à l'IA. Le département de la Sécurité intérieure utilise également l'IA pourdentles activités suspectes aux frontières grâce à l'analyse des données issues des caméras et des radars.
Le rapport révèle toutefois que de nombreuses applications d'IA restent classifiées, les agences fédérales ne divulguant que 70 % des 1 241 cas d'utilisation actifs et prévus. Plus de 350 utilisations technologiques ont été jugées sensibles et, par conséquent, non divulguées au public. Ce secret, particulièrementdent au sein d'agences comme le Département d'État, soulève des inquiétudes quant à la transparence et au contrôle des applications d'IA.
Le GAO exprime ses inquiétudes quant au manque de normes et de politiques en matière d'IA
Alors que les agences gouvernementales adoptent de plus en plus l'IA pour diverses applications, le rapport du GAO souligne l'impérieuse nécessité de politiques normalisées pour encadrer l'acquisition et l'utilisation responsables des technologies d'IA issues du secteur privé. L'absence de directives claires représente un risque potentiel pour la sécurité nationale et le bien-être des citoyens américains.
Le rapport souligne que les agences fédérales élaborent des politiques sans directives cohérentes, ce qui risque d'entraîner des pratiques non conformes aux meilleures pratiques. Cette situation nuit non seulement à l'efficacité de la mise en œuvre de l'IA, mais soulève également des inquiétudes quant à ses conséquences sur le bien-être et la sécurité nationale.
Un problème majeur mis en lumière par le GAO concerne le retard pris par le Bureau de la gestion et du budget (OMB) dans la publication de ses directives. L'OMB était censé fournir un projet de directives aux agences fédérales d'ici septembre 2021, conformément à une loi fédérale de 2020 relative à l'utilisation de l'IA au sein du gouvernement. Or, ces directives n'ont été publiées qu'en novembre 2023, soit avec plus de deux ans de retard. Ce retard a entravé l'élaboration de politiques cohérentes en matière d'IA entre les différentes agences fédérales.
Le rôle de l'IA dans l'application de la loi et les préoccupations liées à la protection de la vie privée
Par ailleurs, le GAO avait déjà exprimé, en septembre, ses inquiétudes quant à l'utilisation de l'IA, et plus particulièrement de la technologie de reconnaissance faciale, par les forces de l'ordre. Le rapport révélait que des milliers de recherches par reconnaissance faciale avaient été effectuées sans formation adéquate entre 2019 et 2022, ce qui a potentiellement conduit à des arrestations injustifiées pour cause d'erreur d'dent. Ce problème souligne l'importance d'une utilisation responsable de l'IA et la nécessité de politiques claires et d'un contrôle rigoureux.
Le rapport du GAO constitue un signal d'alarme crucial pour le gouvernement américain, mettant en lumière à la fois l'adoption rapide de l'IA au sein des agences gouvernementales et l'absence de normes et de politiques exhaustives pour encadrer son utilisation. Si l'IA recèle un immense potentiel pour améliorer le fonctionnement et les services publics, le manque de directives claires engendre des risques importants en matière de sécurité et de protection de la vie privée. Le retard pris par le gouvernement dans la publication de directives essentielles ne fait qu'aggraver la situation. Face au rôle de plus en plus prépondérant que joue l'IA dans la société, il est impératif de répondre à ces préoccupations et de mettre en place des cadres de gouvernance robustes.

