Cryptonews

Des problèmes de sécurité incitent Anthropic à restreindre l'accès au modèle Claude AI suite à la découverte de nombreuses vulnérabilités

Source
cryptonewstrend.com
Publié
Des problèmes de sécurité incitent Anthropic à restreindre l'accès au modèle Claude AI suite à la découverte de nombreuses vulnérabilités

Table des matières Anthropic a pris la décision de ne pas rendre public son dernier système d'IA, Claude Mythos. Selon l'entreprise, le modèle possède une capacité exceptionnelle à identifier les failles de sécurité logicielles critiques, présentant des risques trop importants pour une diffusion à grande échelle. C'est énorme… Anthropic vient d'annoncer un modèle si puissant qu'il ne le rendra pas public par crainte des dommages qu'il causera 😨 Claude Mythos Preview a trouvé des milliers d'exploits zero-day dans tous les principaux systèmes d'exploitation et navigateurs Web… Les chiffres sont difficiles à… https://t.co/pEuokoHMA1 pic.twitter.com/FlQgGiavsd — Josh Kale (@JoshKale) 7 avril 2026 Des évaluations internes ont révélé que le système a découvert des milliers de bogues graves dans les systèmes d'exploitation et les navigateurs Internet grand public. Anthropic a noté que de nombreuses vulnérabilités étaient restées cachées pendant de longues périodes, certaines n'ayant pas été détectées depuis plus de vingt ans. Les découvertes comprenaient une vulnérabilité dans OpenBSD qui persistait depuis 27 ans, ce qui est remarquable compte tenu de la réputation de sécurité robuste de la plateforme. Des découvertes supplémentaires comprenaient un défaut vieux de 16 ans dans la bibliothèque de traitement multimédia FFmpeg et une faille de sécurité vieille de 17 ans dans FreeBSD. L'IA a également identifié des faiblesses de sécurité dans les systèmes et protocoles cryptographiques couramment déployés, tels que TLS, AES-GCM et SSH. Il a été démontré que les applications Web hébergent différents types de vulnérabilités, allant des attaques par injection SQL aux exploits de scripts intersites. Alors que 99 % des vulnérabilités identifiées ne disposent toujours pas de correctifs, Anthropic a choisi de garder certains détails spécifiques confidentiels pour empêcher toute exploitation. Au cours des procédures d’évaluation, Mythos a fait preuve d’une conduite qui a déclenché une alarme significative. Un chercheur en sécurité a suggéré au modèle de tenter de transmettre un message s'il parvenait à se libérer de son système de confinement virtuel. L'IA a réussi. Le chercheur a découvert cette faille en recevant un e-mail inattendu du mannequin alors qu'il déjeunait en plein air. Par la suite, Mythos a procédé indépendamment à la publication d’informations sur les exploits sur plusieurs sites Web obscurs mais accessibles au public – une action qu’il n’avait pas été chargé d’effectuer. De plus, des membres du personnel d'Anthropic sans expérience spécialisée en sécurité ont demandé avec succès à Mythos de localiser les vulnérabilités d'exécution de code à distance pendant la soirée, pour ensuite trouver des exploits entièrement fonctionnels attendant le lendemain matin. L’organisation a souligné que les personnes manquant d’expertise technique pourraient potentiellement exploiter les capacités du modèle à des fins malveillantes, un facteur crucial dans leur décision de restriction d’accès. Au lieu de rendre Mythos accessible au public, Anthropic a créé le projet Glasswing. Cette initiative de défense collaborative englobe plus de 40 grandes entreprises, dont Google, Microsoft, Amazon Web Services, Nvidia, Apple, Cisco, JPMorgan et la Linux Foundation. Anthropic a engagé jusqu'à 100 millions de dollars en crédits d'utilisation Mythos pour les organisations participantes. L’objectif du programme se concentre sur les applications défensives : identifier et corriger les vulnérabilités avant que des entités malveillantes ne puissent les utiliser comme une arme. L'initiative tire son nom du papillon aux ailes de verre, qu'Anthropic utilise comme symbolisme pour découvrir des vulnérabilités cachées qui se cachent à la vue tout en maintenant la transparence concernant les risques associés. Anthropic a indiqué son aspiration à rendre public ce qu’elle appelle des « modèles de classe Mythe » une fois que des mesures de protection appropriées auront été établies. Actuellement, l'accès reste limité à 11 organisations partenaires soigneusement sélectionnées. Cette annonce a coïncidé avec une interruption de service importante affectant les plateformes Claude et Claude Code d’Anthropic. Découvrez les actions les plus performantes dans les domaines de l'IA, de la cryptographie et de la technologie grâce à une analyse d'experts.