Cryptonews

Crypto Space fait face à une menace imminente alors que le pionnier de la blockchain met en garde contre le potentiel de l'intelligence artificielle à compromettre l'anonymat des utilisateurs

Source
cryptonewstrend.com
Publié
Crypto Space fait face à une menace imminente alors que le pionnier de la blockchain met en garde contre le potentiel de l'intelligence artificielle à compromettre l'anonymat des utilisateurs

Table des matières Le co-fondateur d'Ethereum, Vitalik Buterin, a récemment publié une analyse approfondie détaillant les importantes vulnérabilités en matière de confidentialité et de sécurité inhérentes aux plateformes d'IA contemporaines. Sa position préconise une transition fondamentale des infrastructures dépendantes du cloud vers des alternatives exploitées localement. ⚡️NOUVEAU : @VitalikButerin présente une vision de l'IA axée sur la confidentialité, en poussant à des configurations LLM entièrement locales et autonomes pour réduire les fuites de données et le contrôle externe. Il prévient que les écosystèmes d'IA actuels sont « cavaliers » en matière de sécurité, soulignant des risques tels que l'exfiltration de données, les jailbreaks et… pic.twitter.com/Q9BjHSISrL — The Crypto Times (@CryptoTimes_io) 2 avril 2026 Selon Buterin, la technologie de l'intelligence artificielle a évolué considérablement au-delà des interfaces conversationnelles de base. Les plates-formes de la génération actuelle fonctionnent désormais comme des agents indépendants capables d'exécuter des opérations complexes en plusieurs étapes à l'aide de vastes bibliothèques d'outils. Cette évolution, souligne-t-il, amplifie considérablement les menaces potentielles liées à la compromission des données et aux activités système non autorisées. Dans sa divulgation, Buterin a confirmé qu'il avait complètement abandonné les services d'IA basés sur le cloud. Sa mise en œuvre actuelle donne la priorité à ce qu’il appelle une architecture « autonome, locale, privée et sécurisée ». «Je viens d'une position de peur profonde à l'idée de nourrir toute notre vie personnelle avec l'IA cloud», a-t-il écrit. Il a fait référence à des recherches indépendantes sur la sécurité révélant qu'environ 15 % des capacités disponibles des agents d'IA contiennent des instructions intégrées malveillantes. Une enquête supplémentaire a découvert des outils programmés pour transmettre secrètement des informations utilisateur à des serveurs distants. Il a en outre observé que de nombreuses plateformes commercialisées comme open source offrent simplement un accès « open-weights ». Leurs cadres architecturaux complets restent obscurs, créant des vecteurs potentiels de menaces de sécurité non divulguées. En réponse à ces risques identifiés, Buterin a conçu un système complet centré sur le traitement natif des appareils, la gestion des données localisées et les environnements d'exécution compartimentés. Son implémentation fonctionne sur NixOS, déployant un serveur lama pour les opérations d'inférence locales tout en utilisant du papier bulle pour l'isolation des processus. Il a mené des évaluations approfondies des performances sur plusieurs plates-formes matérielles à l'aide du modèle Qwen3.5 35B. Une configuration d'ordinateur portable dotée d'un GPU NVIDIA 5090 a atteint un débit d'environ 90 jetons par seconde. Un système AMD Ryzen AI Max Pro générait environ 51 jetons par seconde. Le matériel DGX Spark produisait environ 60 jetons par seconde. Buterin a déterminé que les performances inférieures à 50 jetons par seconde s'avéraient insuffisantes pour les applications pratiques quotidiennes. Ses tests l'ont amené à privilégier les configurations d'ordinateurs portables hautes performances plutôt que le matériel spécialisé spécialement conçu. Pour les personnes incapables d'investir dans un tel équipement, il a proposé des accords d'achat collaboratifs dans lesquels des groupes acquièrent conjointement des ressources informatiques partagées et du matériel GPU, accédant au système via des connexions à distance. Buterin utilise un cadre de double autorisation pour les opérations sensibles. Les activités telles que la transmission de messages ou les transactions blockchain nécessitent à la fois une sortie générée par l’IA et une vérification humaine explicite. Il maintient que la fusion du jugement humain avec le traitement de l’IA crée une sécurité supérieure par rapport au fait de dépendre exclusivement de l’une ou l’autre approche. Lors de l'utilisation de services de modèle distant, sa mise en œuvre traite d'abord les demandes via un modèle local pour éliminer les détails sensibles avant la transmission externe. Il a établi des parallèles entre les cadres d’IA et les contrats intelligents, reconnaissant leur utilité tout en soulignant qu’ils ne devraient pas recevoir une confiance inconditionnelle. L’adoption des agents d’IA continue de s’accélérer rapidement. Des initiatives comme OpenClaw font progresser la fonctionnalité des agents autonomes. Ces plates-formes fonctionnent de manière indépendante et exécutent des tâches sophistiquées en tirant parti de divers ensembles d'outils. Les projections du secteur estiment le marché des agents d'IA à environ 8 milliards de dollars pour 2025. Les prévisions suggèrent que cette valorisation dépassera 48 milliards de dollars d'ici 2030, ce qui indique une croissance annuelle composée supérieure à 43 %. Certains agents possèdent des capacités leur permettant de modifier les configurations du système ou de manipuler les invites sans autorisation explicite de l'utilisateur, ce qui augmente considérablement les profils de risque d'accès non autorisé.