La SEC a annoncé son intention d'intégrer de l'IA à ses opérations afin de faciliter et d'accélérer la détection des anomalies et de réaliser des évaluations des risques.
La SEC traque les acteurs malveillants qui exploitent la technologie de l'IA à des fins frauduleuses et les entreprises qui pratiquent le blanchiment d'argent par l'IA pour tromper les investisseurs.
Comment la SEC utilise-t-elle l'IA pour protéger les investisseurs et démasquer les fraudeurs ?
La Securities and Exchange Commission (SEC), sous la direction de son président Paul S. Atkins, met en œuvre une stratégie visant à « combattre l'IA par l'IA ». Cette initiative s'articule autour du groupe de travail sur l'IA de la SEC , créé pour donner à l'ensemble de l'agence accès aux avancées technologiques et garantir que la commission puisse suivre le rythme de l'évolution rapide du secteur financier privé.
La Commission utilise des algorithmes pour détecter les infractions de marché, notamment la fraude et les manipulations de marché. Ces outils permettent de déceler les anomalies dans les volumes d'échanges ou les variations de prix avec une rapidité et une précision supérieures aux méthodes traditionnelles.
L'IA aide également le personnel de l'agence àdentplus efficacement les omissions importantes ou les déclarations trompeuses dans les documents déposés par des milliers de sociétés cotées en bourse, permettant ainsi à la SEC de réagir en temps réel aux commentaires du public et aux évolutions du marché.
Le président Atkins a souligné que l'objectif de la SEC demeure la protection des investisseurs, quels que soient les outils utilisés. Cette fois-ci, l'agence est particulièrement attentive aux signes de « blanchiment par l'IA ». Ce terme désigne les entreprises qui font des déclarations fausses, exagérées ou trompeuses concernant leur utilisation de l'intelligence artificielle afin de faire grimper le cours de leurs actions ou d' trac les investisseurs.
Quels sont les risques liés à l'utilisation de l'IA dans la réglementation gouvernementale ?
L'une des principales préoccupations concernant l'IA au sein du gouvernement est le risque de prise de décision opaque, où un algorithme fait un choix sans justification claire et compréhensible par l'humain. Le président Atkins a précisé que l'intervention humaine est indispensable à chaque étape du programme d'évaluation des risques de la SEC.
« Le respect des procédures l’exige », a souligné Atkins lors d’une récente table ronde du Conseil de surveillance de la stabilité financière (FSOC). Un algorithme peutdentidentifier un schéma suspect ou une anomalie, mais il est incapable de déterminer la crédibilité d’un témoin ou d’évaluer les intentions d’un acteur du marché. Par conséquent, la décision finale revient aux commissaires et à leurs équipes.
Les principaux développeurs d'IA, dont Google (Gemini), OpenAI et Anthropic, ont déjà publié des rapports détaillant comment des entités malveillantes exploitent leurs plateformes. Par exemple, OpenAI a récemment fait état du démantèlement d'acteurs malveillants parrainés par des États qui utilisaient l'IA pour rechercher des vulnérabilités et générer du contenu d'hameçonnage. De même, le groupe d'analyse des menaces de Google a trac l'utilisation de modèles de langage complexes (LLM) dans des attaques d'ingénierie sociale visant à voler des identifiants dent .
La SEC obligera les entreprises à divulguer des informations relatives à l'IA s'il existe une forte probabilité qu'un actionnaire raisonnable les juge importantes pour sa décision d'investissement.
Début 2024, la Commission a conclu un accord à l'amiable avec deux conseillers en investissement accusés d'avoir fait des déclarations fausses et trompeuses concernant leur utilisation de l'IA. Dans ces affaires, les sociétés affirmaient utiliser l'IA pour analyser des millions de points de données afin de prédire les fluctuations du marché, mais la SEC a conclu que ces affirmations étaient mensongères.

