Cryptonews

Les États-Unis vont examiner les modèles d'IA de Microsoft, Google et xAI avant leur publication publique

Source
CryptoNewsTrend
Published
Les États-Unis vont examiner les modèles d'IA de Microsoft, Google et xAI avant leur publication publique

Microsoft, Google et xAI ont convenu de fournir au gouvernement américain un accès anticipé aux prochains modèles d'intelligence artificielle, permettant ainsi aux responsables d'examiner les risques potentiels pour la sécurité nationale avant que les systèmes ne soient rendus publics.

Cet arrangement permettra au Centre pour les normes et l'innovation en matière d'IA (CAISI), qui relève du ministère du Commerce des États-Unis, de tester ces modèles à l'avance.

Selon l'agence, le processus comprendra des évaluations techniques et des recherches sur le fonctionnement des systèmes, ainsi que sur les risques qu'ils peuvent présenter.

Les progrès récents en matière d’IA, y compris des systèmes tels que Anthropic Mythos, ont intensifié les inquiétudes à Washington et dans les secteurs des entreprises. Les responsables et les dirigeants ont averti que des modèles de plus en plus performants pourraient être utilisés à mauvais escient, en particulier dans le cadre de cyberattaques où l'automatisation pourrait accroître l'ampleur et la rapidité des activités malveillantes.

Anthropic n’a pas été mentionné dans la dernière annonce. L'entreprise est en désaccord avec le ministère américain de la Défense sur l'étendue des garanties appliquées lorsque ses outils sont utilisés dans des environnements militaires, soulignant les tensions persistantes autour de la manière dont ces systèmes devraient être déployés.

« Une science de mesure indépendante et rigoureuse est essentielle pour comprendre l’IA aux frontières et ses implications en matière de sécurité nationale », a déclaré le directeur du CAISI, Chris Fall, soulignant la nécessité de cadres d’évaluation structurés à mesure que les capacités des modèles progressent.

CAISI agit comme la plaque tournante centrale du gouvernement fédéral pour tester les systèmes d’IA avancés. Elle a indiqué avoir déjà réalisé plus de 40 évaluations, notamment sur des modèles qui n'étaient pas encore rendus publics au moment des tests.

Pour étayer ces évaluations, les développeurs soumettent souvent des versions modifiées de leurs modèles avec certains garde-corps de sécurité assouplis. Cela permet à l'agence d'examiner les pires scénarios et d'identifier les vulnérabilités qui pourraient ne pas apparaître dans des conditions d'utilisation standard.

Cette décision intervient peu de temps après que le Pentagone ait élargi ses propres partenariats en matière d’IA. Le ministère américain de la Défense a annoncé la semaine dernière avoir signé des accords avec sept entreprises pour déployer des capacités avancées d'IA sur des réseaux classifiés, dans le but de diversifier son pool de fournisseurs de technologies soutenant les opérations militaires.

Les États-Unis vont examiner les modèles d'IA de Microsoft, Google et xAI avant leur publication publique