Les agents IA sont bloqués en mode pilote car les banques ne leur font toujours pas confiance

- L'adoption de l'IA agentielle dans le secteur financier progresse plus lentement que ne le laisse supposer l'intérêt des dirigeants.
- Dipendra Malhotra, responsable des technologies de gestion de patrimoine chez Citi, a publiquement désigné la mémoire comme la principale limitation après le lancement par la banque de son agent Citi Sky le 22 avril.
- Les normes Ethereum ERC-8004 et ERC-8183 sont en cours d'élaboration pour fournir aux agents d'IA unedent, une réputation, une validation, un système de séquestre et une attestation basée sur un évaluateur sur la chaîne.
L'intelligence artificielle multi-agents (IA-Agent) suscite un intérêt croissant dans le secteur financier, mais le principal obstacle n'est plus la puissance des modèles. Le véritable enjeu est de savoir si les banques, les gestionnaires d'actifs et les services de trésorerie disposent de l'infrastructure nécessaire pour déléguer des tâches financières à des systèmes autonomes sans perdre le contrôle des fonds, la responsabilité ou la conformité.
Un sondage Deloitte mené auprès de plus de 3 300 professionnels de la finance et de la comptabilité a clairement mis en évidence cet écart : 80,5 % ont déclaré que les outils basés sur l’IA, tels que les agents et les chatbots GenAI, pourraient devenir la norme d’ici cinq ans, mais seulement 13,5 % ont indiqué que leurs organisations utilisaient déjà l’IA agentique.
Citi Sky a démontré l'importance du débat sur les infrastructures
Citi a lancé Citi Sky, un assistant de gestion de patrimoine basé sur l'IA et conçu avec les technologies Google Cloud et Google DeepMind, le 22 avril. Cet outil a été développé à l'aide de la plateforme Gemini Enterprise Agent de Google et sera déployé progressivement auprès des clients Citigold aux États-Unis cet été.
Ce lancement a donné un exemple concret au débat sur l'IA agentive dans le secteur bancaire. Dipendra Malhotra, responsable des technologies de gestion de patrimoine chez Citi, a souligné que la mémoire constituait une contrainte majeure pour l'IA de conseil à enjeux élevés, se demandant combien de temps un client pouvait maintenir une conversation avant que le système ne commence à dérailler.
La plupart des agents s'appuient sur la génération augmentée par récupération pour étendre leur mémoire grâce à des bases de données externes. Les fenêtres de contexte limitent toujours la quantité d'informations qu'un agent peut contenir simultanément.
En matière de conseil financier, de gestion de trésorerie ou d'exécution de portefeuille, cette limite de mémoire devient plus qu'un simple problème technique. Elle devient un risque opérationnel.
MihnChi Park, cofondateur de CoinFello, a déclaré que les conditions d'une délégation de confiance sont simples : l'agent ne peut agir que selon les instructions de l'utilisateur, l'utilisateur peut l'interrompre et les actifs sous-jacents ne sont jamais transférés à un tiers.
Ethereum élabore des primitives on-chain pourdentdes agents
La proposition ERC-8004 Ethereum introduit des systèmes d'dent, de réputation et de validation des agents. Le projet de norme définit trois registres : un registre d'dent, un registre de réputation et un registre de validation.
Ensemble, ils sont destinés à aider les agents autonomes à prouver leur identité, à constituer un historique de leur comportement et à faciliter la vérification par d'autres acteurs du marché.
La norme ERC-8183 adopte une approche plus restrictive. Elle propose une norme de dépôt fiduciaire de travaux avec attestation d'un évaluateur, selon laquelle un client finance un travail, un prestataire soumet un travail et un évaluateur valide ou rejette le résultat.
La proposition ne prévoit ni arbitrage ni règlement formel des différends, mais elle offre aux marchés basés sur des agents un cadre pour les tâches sous séquestre et leur achèvement vérifiable.
L'article arXiv intitulé «The Agent Economy: A Blockchain-Based Foundation for Autonomous AI Agents» décrit une architecture à cinq couches pour cette transition, couvrant l'infrastructure physique, l'identité sur la chaînedentles outils cognitifs, le règlement économique et la gouvernance collective.
Le système de réputation présente encore une vulnérabilité structurelle. Les agents peuvent générer de l'activité à une vitesse et à une échelle que les humains ne peuvent égaler, ce qui permet de gonfler artificiellement les signaux de confiance sur de courtes périodes.
Cela pose un problème difficile aux institutions financières : lorsqu’un agent a de bons antécédents, ces antécédents constituent-ils une preuve de fiabilité ou simplement la preuve d’une activité automatisée répétée ?
McKinsey estime que 50 % à 60 % des opérations bancaires sont concernées
McKinsey estime que 50 à 60 % des effectifs à temps plein des banques sont affectés aux opérations. Les experts mettent en garde contre une « phase pilote stérile », où les institutions mènent des études de faisabilité limitées sans repenser leur modèle opérationnel.
Comme Cryptopolitan l'a rapporté lors du Hong Kong Web3 Festival, McKinsey a estimé que le marché de l'IA agentique passerait de 5,25 milliards de dollars en 2024 à environ 200 milliards de dollars d'ici 2034.
Porter Stowell, PDG de W3.io, a déclaré : « Les entreprises n’ont aucun moyen de voir, de contrôler ou d’auditer ce que les systèmes autonomes font de leurs fonds. La supervision humaine ne disparaît pas. Elle se déplace simplement vers des niveaux supérieurs de la hiérarchie. »
Quatre questions restent sans réponse : qui est responsable lorsqu’un agent d’IA cause une perte financière ? Peut-on se fier à sa réputation ? Qui contrôle ces systèmes une fois déployés à grande échelle ? Et quel cadre réglementaire s’applique lorsqu’un agent agit en dehors de son champ d’action ?.
Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les!
FAQ
Que sont les codes ERC-8004 et ERC-8183 ?
Il s'agit Ethereumdentdent dentdentdentdent dentdent, d'une réputation et de garanties transactionnelles.
Source principale :
Qu’est-ce que l’indice de sécurité des données Microsoft ?
Un rapport de Microsoft qui examine comment les organisations gèrent la sécurité des données, y compris les risques liés à l'adoption de l'IA.
Quels sont les principaux risques actuellement ?
Gouvernance défaillante, absence de responsabilité juridique et risque de manipulation des systèmes de réputation à la vitesse de l'ordinateur.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















