Cryptonews

Les agents IA sont bloqués en mode pilote parce que les banques ne leur font toujours pas confiance

Source
CryptoNewsTrend
Published
Les agents IA sont bloqués en mode pilote parce que les banques ne leur font toujours pas confiance

L’IA agentique attire de plus en plus l’attention dans le secteur financier, mais le plus grand obstacle du secteur n’est plus de savoir si les modèles sont suffisamment puissants. Le problème le plus difficile est de savoir si les banques, les gestionnaires d’actifs et les services de trésorerie disposent de l’infrastructure nécessaire pour déléguer des tâches financières à des systèmes autonomes sans perdre le contrôle de l’argent, la responsabilité ou la conformité.

Un sondage Deloitte mené auprès de plus de 3 300 professionnels de la finance et de la comptabilité a clairement montré l'écart : 80,5 % ont déclaré que les outils basés sur l'IA, tels que les agents et les chatbots GenAI, pourraient devenir la norme d'ici cinq ans, mais seulement 13,5 % ont déclaré que leur organisation utilisait déjà l'IA agentique.

Citi Sky a montré pourquoi le débat sur les infrastructures est important

Citi a lancé Citi Sky, un assistant de gestion de patrimoine basé sur l'IA et construit avec les technologies Google Cloud et Google DeepMind, le 22 avril. L'outil a été développé à l'aide de la plateforme Gemini Enterprise Agent de Google et devrait être déployé progressivement auprès des clients de Citigold aux États-Unis cet été.

Le lancement a donné au débat sur l’IA agentique un exemple de banque en direct. Dipendra Malhotra, responsable de la technologie de gestion de patrimoine chez Citi, a souligné la mémoire comme une contrainte centrale pour l'IA consultative à enjeux élevés, se demandant combien de temps un client peut poursuivre une conversation avant que le système ne commence à halluciner.

La plupart des agents s'appuient sur la génération augmentée par récupération pour étendre la mémoire via des bases de données externes. Les fenêtres contextuelles limitent toujours la quantité d’informations qu’un agent peut détenir simultanément.

Dans le domaine du conseil financier, de la gestion de trésorerie ou de l’exécution de portefeuille, ce plafond de mémoire devient plus qu’un problème technique. Cela devient un risque opérationnel.

MihnChi Park, co-fondateur de CoinFello, a déclaré que les conditions d'une délégation fiable sont simples : l'agent ne peut agir que conformément aux instructions de l'utilisateur, l'utilisateur peut l'arrêter et les actifs sous-jacents ne sont jamais transférés à un tiers.

Ethereum rédige des primitives en chaîne pour l'identité de l'agent

La proposition Ethereum ERC-8004 introduit des systèmes d'identité, de réputation et de validation des agents. Le projet de norme définit trois registres : un registre d'identité, un registre de réputation et un registre de validation.

Ensemble, ils sont destinés à aider les agents autonomes à prouver qui ils sont, à établir un registre de leur comportement et à faciliter la vérification par d'autres acteurs du marché.

L'ERC-8183 emprunte un itinéraire plus étroit. Il propose une norme de dépôt d'emploi avec attestation d'évaluateur, dans laquelle un client finance un travail, un prestataire soumet un travail et un évaluateur complète ou rejette le résultat.

La proposition ne prévoit pas d'arbitrage ni de résolution formelle des litiges, mais elle donne aux marchés basés sur des agents un cadre pour les tâches déposées et leur achèvement vérifiable.

L'article d'arXiv « The Agent Economy : A Blockchain-Based Foundation for Autonomous AI Agents » trace une architecture à cinq couches pour ce changement, couvrant l'infrastructure physique, l'identité en chaîne, les outils cognitifs, le règlement économique et la gouvernance collective.

La couche de réputation comporte toujours une vulnérabilité structurelle. Les agents peuvent générer une activité à une vitesse et à une échelle que les humains ne peuvent égaler, ce qui permet de gonfler les signaux de confiance sur de courtes périodes.

Cela pose aux institutions financières une question difficile : lorsqu’un agent a un bon dossier, ce dossier est-il une preuve de fiabilité ou simplement une preuve d’une activité automatisée répétée ?

McKinsey couvre 50 à 60 % des opérations bancaires

McKinsey estime que 50 à 60 % des équivalents temps plein des banques sont liés aux opérations. Les experts mettent en garde contre un « purgatoire pilote », où les institutions exécutent des preuves de concept limitées sans recâbler le modèle opérationnel.

Comme Cryptopolitan l'a rapporté lors du festival Web3 de Hong Kong, McKinsey prévoyait que le marché de l'IA agentique passerait de 5,25 milliards de dollars en 2024 à environ 200 milliards de dollars d'ici 2034.

Porter Stowell, PDG de W3.io, a déclaré : "Les entreprises n'ont aucun moyen de voir, de contrôler ou d'auditer ce que les systèmes autonomes font avec leur argent. La surveillance humaine ne disparaît pas. Elle monte simplement dans la hiérarchie."

Quatre questions restent en suspens : qui est responsable lorsqu'un agent d'IA provoque une perte financière, si sa réputation est fiable, qui contrôle une fois ces systèmes déployés à grande échelle, et quel cadre réglementaire s'applique lorsqu'un agent agit en dehors de son champ d'action.

Les agents IA sont bloqués en mode pilote parce que les banques ne leur font toujours pas confiance