Cryptonews

L’administration Trump divisée sur l’élargissement du rôle de l’IA des agences d’espionnage américaines

Source
CryptoNewsTrend
Published
L’administration Trump divisée sur l’élargissement du rôle de l’IA des agences d’espionnage américaines

Le gouvernement américain se dispute entre lui-même pour savoir qui va contrôler les modèles d’IA les plus puissants de la planète. Et le résultat pourrait remodeler la façon dont des entreprises comme OpenAI et Anthropic commercialisent leurs produits.

L’administration Trump envisage un décret qui élargirait considérablement le rôle des agences de renseignement dans l’évaluation des systèmes d’IA frontaliers, une décision motivée par les préoccupations croissantes en matière de cybersécurité autour des modèles avancés. Le hic : des éléments clés de l’administration ne parviennent pas à se mettre d’accord sur qui devrait réellement être aux commandes.

La guerre de territoire

Au centre du différend se trouve une question simple aux réponses complexes : le ministère du Commerce ou la communauté du renseignement devraient-ils prendre l’initiative d’évaluer si les modèles d’IA de pointe présentent des risques pour la sécurité nationale ?

Le ministère du Commerce a déjà commencé les tests préalables au déploiement de modèles d’IA de grandes entreprises technologiques, notamment Google et Microsoft. Ce travail fait partie d’une initiative plus large en matière de gouvernance de l’IA qui s’est développée tout au long de 2026.

Mais les agences d’espionnage veulent une plus grande place à la table, arguant que leur expertise en matière d’évaluation des menaces les rend mieux adaptées pour évaluer des modèles qui pourraient être utilisés pour des cyberattaques, des campagnes de désinformation ou d’autres menaces à la sécurité nationale. En anglais : ceux qui traquent les adversaires étrangers pensent qu’ils devraient également suivre les outils que ces adversaires pourraient utiliser.

Le décret pourrait être adopté dès le 13 mai 2026. S’il est signé, il formaliserait le rôle élargi des agences de renseignement et obligerait potentiellement des entreprises comme Anthropic et OpenAI à soumettre leurs modèles pour des examens préalables à leur publication. Il s’agit d’une escalade significative par rapport au régime actuel, dans lequel le développement commercial de l’IA s’est déroulé sous une surveillance fédérale relativement légère.

Pensez-y comme à la différence entre un restaurant qui subit une inspection sanitaire après son ouverture et qui a besoin de l'approbation du gouvernement avant de pouvoir servir son premier repas. Les enjeux, et les délais, sont fondamentalement différents.

Pourquoi la crypto devrait y prêter attention

À première vue, la lutte pour la surveillance de l’IA peut sembler déconnectée des actifs numériques. Ce n’est pas le cas.

La même administration qui fait pression pour des contrôles plus stricts de l’IA a discrètement construit un vaste appareil de surveillance pour les marchés de la cryptographie. Le 28 avril 2026, le ministère de la Sécurité intérieure a annoncé la création d'un réseau de renseignement cryptographique reliant 70 agences aux principales plateformes, notamment Ripple et Coinbase. Ce réseau couvrirait 85 % des volumes de transactions cryptographiques centralisés, permettant un suivi en temps réel et, dans certains cas, la saisie potentielle de fonds.

Le modèle ici est difficile à manquer. Les préoccupations en matière de sécurité nationale deviennent le principal prisme à travers lequel l’administration considère les technologies émergentes, qu’il s’agisse de grands modèles linguistiques ou de protocoles blockchain. Et lorsque la sécurité nationale est invoquée, la déréglementation tend à passer au second plan.

Cela représente une évolution notable par rapport à la position antérieure de l’administration. Le 23 janvier 2025, Trump a signé un décret créant un groupe de travail sur les actifs numériques et interdisant explicitement la promotion fédérale des monnaies numériques des banques centrales. Cet ordre a été largement interprété comme favorable à l’industrie, signe que le gouvernement encouragerait l’innovation plutôt que de la restreindre.

Dix-huit mois plus tard, l’accent a considérablement changé. Le groupe de travail sur les actifs numériques existe toujours, mais il fonctionne désormais aux côtés d’un réseau de surveillance DHS capable de surveiller la grande majorité des activités commerciales centralisées en temps réel. L'ambiance a changé.

Ce que cela signifie pour les investisseurs

Pour les acteurs du marché, les implications vont dans deux directions simultanément.

D’une part, une plus grande clarté réglementaire autour de l’IA pourrait profiter aux jetons et aux projets associés à une infrastructure d’IA sécurisée. Si le gouvernement impose des examens de sécurité des modèles d’IA, les outils et plateformes qui facilitent la conformité deviennent plus précieux. Les projets construits à l’intersection de l’IA et de la blockchain, en particulier ceux axés sur le calcul vérifiable ou le déploiement de modèles sécurisés, pourraient susciter un intérêt accru à mesure que le capital institutionnel recherche des points d’entrée respectueux de la réglementation.

D’un autre côté, l’expansion de la surveillance pose de réels défis aux projets axés sur la confidentialité et aux plateformes décentralisées. Un réseau de crypto-intelligence couvrant 85 % des volumes de transactions centralisés incite fortement les utilisateurs à s’orienter vers des alternatives décentralisées, mais il fixe également un objectif sur ces alternatives. Lorsque le DHS pourra suivre la plupart de ce qui se passe sur Coinbase et Ripple, la prochaine étape logique consistera à étendre cette capacité aux échanges décentralisés et aux chaînes de confidentialité.

Le risque plus large est que les priorités en matière de sécurité nationale commencent à évincer la rhétorique favorable à l’innovation qui a caractérisé les premières approches de l’administration en matière d’IA et de cryptographie. Les cadres réglementaires conçus principalement autour de la prévention des menaces ont tendance à générer des contraintes de conformité qui favorisent les grands opérateurs historiques par rapport aux projets plus petits et plus expérimentaux. Google

L’administration Trump divisée sur l’élargissement du rôle de l’IA des agences d’espionnage américaines