Sous l'administration Biden, le département du Commerce met en œuvre une nouvelle initiative de conformité afin de restreindre davantage l'exportation de modèles d'intelligence artificielle, qu'ils soient à code source ouvert ou fermé. Cette initiative vise à protéger les intérêts américains et la technologie d'IA face à la Russie et à la Chine et complétera les mesures prises ces deux dernières années pour bloquer l'accès de la Chine aux puces informatiques de pointe.
Selon Reuters, qui cite trois sources proches du dossier, les États-Unis cherchent à renforcer la sécurité des logiciels de base des grands modèles de langage utilisés par des applications comme ChatGPT. L'agence de presse affirme que des chercheurs des secteurs privé et public s'inquiètent de la possibilité que des adversaires des États-Unis utilisent cette technologie pour mener des cyberattaques agressives et développer des armes biologiques. L'ambassade de Chine, quant à elle, s'oppose à cette initiative, la qualifiant d'intimidation unilatérale et de coercition économique.
Les deepfakes sont une arme de désinformation mortelle
Les menaces que redoutent les États-Unis sont nombreuses et peuvent être exploitées par des acteurs non étatiques soutenus par des États. Les deepfakes, par exemple, peuvent servir d'arme de propagande efficace, car il s'agit de vidéos réalistes mais truquées, créées par des outils d'intelligence artificielle.
Ce type de vidéos fait déjà son apparition sur les réseaux sociaux. Bien que ce type de contenu existe depuis quelques années, développé à l'aide de logiciels d'animation et de rendu, les outils d'intelligence artificielle générative ont simplifié sa production et permis à tous de l'exploiter plus facilement que jamais pour manipuler l'opinion publique sur des sujets sensibles, notamment lors des campagnes électorales.
Les plateformes de médias sociaux comme YouTube, Facebook et Twitter ont déjà pris des mesures pour limiter la diffusion de deepfakes, mais les tactiques utilisées pour les créer et les publier évoluent également au rythme des progrès technologiques. Actuellement, des outils développés par des entreprises comme Microsoft et OpenAI permettent de créer du contenu destiné à propager de la désinformation.
Selon des chercheurs de Rand Corporation et de Gryphon Scientific, une préoccupation bien plus importante réside dans le risque de fuite d'informations par les modèles d'IA permettant le développement d'armes biologiques. Les agences de renseignement américaines, des experts universitaires et des groupes de réflexion s'inquiètent également de la possibilité que l'IA tombe entre les mains d'éléments incontrôlés.
L'étude Gryphon adentcomment les LLM peuvent produire des connaissances d'experts et de niveau doctoral qui peuvent contribuer au développement de virus ayant des capacités pandémiques, et qui peuvent être utilisés par des acteurs non étatiques comme armes biologiques.
Amplification des cyberattaques grâce aux modèles d'IA
Le ministère de la Sécurité intérieure a également exprimé des inquiétudes quant à la possibilité que des cyberattaques contre des infrastructures cruciales telles que les chemins de fer et les pipelines soient exécutées grâce à l'IA, en développant de nouveaux outils capables de mener des cyberattaques à plus grande échelle, plus complexes et plus rapidement.
L'agence a également indiqué que la Chine développe des logiciels d'intelligence artificielle pouvant être utilisés pour des attaques de logiciels malveillants, et qu'elle travaille également sur des technologies d'IA susceptibles de saboter les cyberdéfenses du pays.

En février dernier, Microsoft a publié un rapport dans lequel il notait avoirdentdes groupes de cybercriminels impliqués dans des activités de piratage qui perfectionnent leurs campagnes de piratage en utilisant des LLM, et qui ont des liens avec les services de renseignement militaire de la Russie, des gouvernements nord-coréen et chinois, et des Gardiens de la révolution iraniens.
financés par des États groupes cybernétiques d'utiliser ses produits et services d'IA. Mercredi, un groupe de personnalités politiques a proposé un projet de loi visant à aider le gouvernement Biden à renforcer les contrôles sur l'exportation de modèles d'IA afin d'empêcher leur divulgation à des adversaires potentiels.
Des experts ont indiqué que Washington cherche à éviter une réglementation excessive susceptible de freiner l'innovation, tout en s'efforçant de la favoriser et de trouver des solutions aux risques liés à l'IA. Ils ont également souligné qu'une réglementation trop stricte du développement de l'IA créerait un vide pour les concurrents étrangers et nuirait aux infrastructures, à la sécurité nationale et à la recherche pharmaceutique.

