Cryptonews

Les juges britanniques interviennent dans le bourbier juridique d’une société d’IA au milieu des retombées du partenariat avec le Pentagone

Source
cryptonewstrend.com
Publié
Les juges britanniques interviennent dans le bourbier juridique d’une société d’IA au milieu des retombées du partenariat avec le Pentagone

Les responsables britanniques prennent des mesures agressives pour attirer Anthropic, le développeur de l'assistant Claude AI, comme le rapporte le Financial Times. Le Royaume-Uni voit une ouverture stratégique pour étendre la présence de l’entreprise suite à l’escalade des tensions entre Anthropic et le Pentagone. 🚨🇫🇷 JUST IN : Le Royaume-Uni décide de recruter la société d'IA Anthropic à Londres après que le Pentagone a menacé de retirer 200 millions de dollars et de qualifier l'entreprise de risque pour la chaîne d'approvisionnement pour avoir refusé d'affaiblir les garde-fous de sécurité. – MSB Intel (@MSBIntel) 5 avril 2026 L’argumentaire du gouvernement britannique englobe l’expansion des opérations actuelles d’Anthropic à Londres et la facilitation d’une double cotation en bourse. Le ministère britannique de la Science, de l’Innovation et de la Technologie est le fer de lance de ces initiatives. L’administration du Premier ministre Keir Starmer a apporté son soutien aux efforts de sensibilisation du ministère. Les responsables prévoient de présenter ces propositions directement au directeur général d’Anthropic, Dario Amodei, lors de sa visite prévue au Royaume-Uni, prévue fin mai. Anthropic et le ministère britannique de la Science, de l’Innovation et de la Technologie ont refusé de fournir des déclarations lorsqu’ils ont été contactés par Reuters. Le ministère de la Défense a qualifié Anthropic de menace pour la sécurité nationale de la chaîne d’approvisionnement. Cette désignation découle de la position ferme de l’entreprise contre l’autorisation du déploiement de son système Claude AI pour des opérations de surveillance militaire américaine ou des applications d’armes autonomes. Cette classification a abouti à l'ajout d'Anthropic à une liste noire du gouvernement. De telles listes limitent généralement la capacité d’une entreprise à collaborer avec des agences fédérales et des entrepreneurs agréés. Anthropic a rapidement réagi juridiquement. Un juge fédéral a accordé une mesure provisoire, empêchant la liste noire de devenir opérationnelle pendant le déroulement du litige. La société d’IA a simultanément lancé une contestation judiciaire distincte ciblant la classification elle-même des menaces liées à la chaîne d’approvisionnement. Cette poursuite supplémentaire reste en attente de contrôle judiciaire. La cour agressive du Royaume-Uni fait partie d’une stratégie plus large visant à tirer parti de l’incertitude entourant la gouvernance technologique américaine. Un accord de double cotation permettrait aux actions d'Anthropic d'être négociées sur les bourses britanniques parallèlement à toute entrée potentielle sur le marché américain. Cette structure offrirait aux investisseurs basés au Royaume-Uni un accès immédiat aux capitaux propres de l'entreprise. L’agrandissement des installations de Londres renforcerait considérablement l’empreinte européenne d’Anthropic. La Grande-Bretagne a cultivé un écosystème d’IA florissant, les responsables gouvernementaux faisant de l’attraction des investissements technologiques un objectif politique fondamental. Le rapport du Financial Times n'indique pas si Anthropic a manifesté de l'intérêt ou rejeté les propositions britanniques. La visite d’Amodei au Royaume-Uni fin mai devrait être le moment critique où les responsables présenteront officiellement leur dossier complet. La suspension judiciaire temporaire de la désignation sur liste noire laisse le statut réglementaire d’Anthropic en évolution. La résolution des deux batailles juridiques en cours déterminera probablement l’orientation stratégique de l’entreprise à l’avenir. Découvrez les actions les plus performantes dans les domaines de l'IA, de la cryptographie et de la technologie grâce à une analyse d'experts.