Cryptonews

Americans for Responsible Innovation exhorte les États-Unis à imposer des examens de la sécurité de l'IA pour les contrats gouvernementaux

Source
CryptoNewsTrend
Published
Americans for Responsible Innovation exhorte les États-Unis à imposer des examens de la sécurité de l'IA pour les contrats gouvernementaux

Americans for Responsible Innovation, une organisation à but non lucratif axée sur la politique en matière d'IA, pousse l'administration Trump à exiger des examens de sécurité obligatoires pour tout laboratoire d'IA souhaitant tenter sa chance dans les contrats du gouvernement américain. La recommandation, formulée le 11 mai 2026, cible les développeurs qui construisent des modèles dits « frontières », les systèmes d’IA les plus puissants et potentiellement dangereux qui existent.

La proposition d’ARI se concentre sur des évaluations structurées de la sécurité qui serviraient de mécanisme de contrôle pour les marchés publics fédéraux. Un laboratoire d’IA construisant des modèles pionniers devrait démontrer que ses systèmes ont été examinés pour détecter tout risque d’utilisation abusive avant de se qualifier pour un contrat gouvernemental.

Le 6 avril 2026, le groupe a mis en garde l’Administration des services généraux contre les risques inhérents aux vagues clauses de « toute utilisation licite » trouvées dans les réglementations existantes en matière d’achat d’IA. Selon ARI, ces clauses donnent essentiellement aux systèmes d’IA un chèque en blanc pour fonctionner sans garde-fous significatifs une fois qu’ils sont à l’intérieur des systèmes gouvernementaux.

L’ARI souligne un taux de croissance annuel de 4,2 fois dans le calcul de l’IA depuis 2010, une trajectoire qui suggère que les capacités des modèles frontières se développent bien plus rapidement que la capacité du gouvernement à les évaluer. Pendant ce temps, 82 % du public ne fait pas confiance aux responsables technologiques pour réglementer eux-mêmes l’IA.

Le 24 mars 2026, la CFTC a annoncé la création d’un groupe de travail spécifiquement destiné à réglementer le rôle de l’IA dans les actifs numériques. ARI est relativement nouveau sur la scène de la réglementation de l'IA et le groupe n'a pas établi de liens explicites avec la crypto-monnaie ou les actifs numériques dans ses recommandations.

Si les examens de sécurité obligatoires deviennent une réalité, l’impact le plus immédiat tombera sur les entreprises d’IA qui tirent des revenus importants des contrats gouvernementaux. Les coûts de conformité augmenteraient. Les délais pour obtenir des contrats s’allongeraient. Les petites startups d’IA, qui manquent souvent de ressources pour effectuer des audits de sécurité approfondis, pourraient se retrouver complètement exclues du marché fédéral.

Le groupe de travail de la CFTC sur l’IA et les actifs numériques suggère que les régulateurs réfléchissent déjà à la façon dont la gouvernance de l’IA recoupe les systèmes basés sur la blockchain. Les investisseurs dans les jetons et les projets liés à l’IA devraient prêter attention à la façon dont cette proposition est reçue par l’administration et par le Congrès, car les mandats de sécurité prenant de l’ampleur politique obligeraient le marché à intégrer des coûts de conformité plus élevés dans le secteur de l’IA, y compris les entreprises qui se construisent à l’intersection de l’IA et de la cryptographie.

Americans for Responsible Innovation exhorte les États-Unis à imposer des examens de la sécurité de l'IA pour les contrats gouvernementaux