Anthropic utilise le « marketing basé sur la peur » pour promouvoir Claude Mythos : Sam Altman

En bref
Le PDG d'OpenAI, Sam Altman, a suggéré que la société rivale Anthropic utilise le « marketing basé sur la peur » pour promouvoir son modèle Claude Mythos.
Claude Mythos a fait preuve d'une capacité sans précédent à détecter les vulnérabilités logicielles.
Les gouvernements et les chercheurs ont mis en garde contre les risques défensifs et offensifs impliquant Mythos.
Le PDG d'OpenAI, Sam Altman, a repoussé l'inquiétude croissante suscitée par le puissant nouveau modèle d'IA de son rival Anthropic, Claude Mythos, suggérant que l'entreprise utilise la « peur » pour commercialiser le produit.
S'exprimant sur le podcast Core Memory animé par la journaliste technique Ashlee Vance, Altman a fait valoir que l'utilisation du « marketing basé sur la peur » visait à garder l'IA entre les mains d'un « groupe plus restreint de personnes ».
"Vous pouvez justifier cela de différentes manières, et certaines d'entre elles sont réelles, comme s'il y aurait des problèmes de sécurité légitimes", a déclaré Altman.
"Mais si vous voulez dire 'nous avons besoin de contrôler l'IA, juste nous, parce que nous sommes des personnes dignes de confiance', je pense que le marketing basé sur la peur est probablement le moyen le plus efficace de justifier cela."
Altman a ajouté que même s'il existe des inquiétudes légitimes concernant la sécurité de l'IA, "c'est clairement un marketing incroyable de dire : "Nous avons construit une bombe.
Il a souligné qu’il n’était « pas toujours facile » d’équilibrer les nouvelles capacités de l’IA avec la conviction d’OpenAI selon laquelle la technologie devait être accessible.
Claude Mythos d’Anthropic
Le modèle Claude Mythos d'Anthropic, révélé le mois dernier, a attiré l'attention des chercheurs, des gouvernements et de l'industrie de la cybersécurité, en particulier après que des tests ont suggéré qu'il pouvait identifier de manière autonome les vulnérabilités logicielles et exécuter des cyberopérations complexes. Le modèle est distribué uniquement à un nombre limité d'organisations via un programme restreint.
Ce déploiement reflète une division plus large au sein de l'industrie de l'IA sur la manière dont les systèmes puissants doivent être déployés, certaines entreprises mettant l'accent sur l'accès contrôlé et d'autres plaidant pour une distribution plus large afin d'accélérer l'innovation et la compréhension de la technologie.
Le mythe est devenu un point central de ce débat. Les capacités du modèle ont été présentées par Anthropic à la fois comme une percée défensive (permettant une détection plus rapide des failles logicielles critiques) et comme un risque offensif potentiel en cas de mauvaise utilisation. Au début du mois, il a identifié des centaines de vulnérabilités dans le navigateur Firefox de Mozilla lors de tests et a également démontré sa capacité à réaliser des simulations de cyberattaques en plusieurs étapes.
Anthropic a restreint l'accès au système via le projet Glasswing, accordant à certaines entreprises, dont Amazon, Apple et Microsoft, la possibilité de tester ses capacités. L’entreprise a également consacré des ressources importantes au soutien des efforts de sécurité open source, arguant que les défenseurs devraient bénéficier de la technologie avant qu’elle ne soit plus largement disponible.
Les experts en sécurité préviennent que les mêmes capacités qui permettent à Mythos d'identifier les vulnérabilités pourraient également être utilisées pour les exploiter à grande échelle. Les tests effectués par l’AI Security Institute du Royaume-Uni ont révélé que le modèle pouvait mener à bien de manière autonome des cyberopérations complexes.
Le modèle a également révélé les limites des systèmes d'évaluation de l'IA existants, Anthropic reconnaissant que de nombreux critères de cybersécurité actuels ne suffisent plus pour mesurer les capacités de son dernier système.
Cela dit, un groupe de chercheurs a affirmé la semaine dernière qu’ils étaient capables de reproduire les découvertes de Mythos en utilisant des modèles accessibles au public.
Malgré les appels lancés par certaines parties du gouvernement américain pour arrêter l'utilisation de cette technologie en raison des inquiétudes concernant ses applications potentielles dans la guerre et la surveillance, la National Security Agency aurait commencé à tester une version préliminaire du modèle sur des réseaux classifiés. Sur le marché de prédiction Myriad, propriété de la société mère de Decrypt, Dastan, les utilisateurs estiment 49 % de chances que Claude Mythos soit rendu public d'ici le 30 juin.
Altman a suggéré que les discours autour des systèmes d’IA très dangereux pourraient augmenter à mesure que les capacités s’améliorent, mais a fait valoir que toutes ces affirmations ne devraient pas être prises au pied de la lettre.
"Il y aura beaucoup plus de rhétorique sur les modèles trop dangereux pour être commercialisés. Il y aura également des modèles très dangereux qui devront être commercialisés de différentes manières", a-t-il déclaré. "Je suis sûr que Mythos est un excellent modèle en matière de cybersécurité, mais je pense que nous avons un plan qui nous satisfait quant à la manière dont nous mettons ce type de capacité au service du monde."
Altman a également rejeté les suggestions selon lesquelles OpenAI réduirait ses dépenses d'infrastructure, affirmant que l'entreprise continuerait d'étendre sa capacité de calcul malgré l'évolution des récits.
« Je ne sais pas d’où cela vient… les gens veulent vraiment écrire l’histoire du retrait », a-t-il déclaré. "Mais très bientôt, ce sera à nouveau le cas : "OpenAI est tellement imprudent. Comment peuvent-ils dépenser une somme aussi folle ?"