L'arnaque Deepfake de la Fondation Cardano cible le développeur alors que CZ émet un avertissement

Table des matières Une arnaque sophistiquée utilisant la vidéo et la voix générées par l'IA a presque compromis un développeur de cryptographie bien connu lié à l'écosystème Cardano. L'attaquant s'est fait passer pour Pierre Kaklamanos, responsable de l'adoption des actifs numériques à la Fondation Cardano, lors de ce qui semblait être un appel légitime de Microsoft Teams. La cible, le développeur Big Pey, a déclaré que l'arnaque avait presque réussi après avoir suivi les instructions lors de la fausse réunion. Le co-fondateur de Binance, Changpeng Zhao, a ensuite amplifié l'avertissement alors que des cas similaires sont apparus dans les communautés cryptographiques. Big Pey a partagé l'incident sur X, expliquant que l'agresseur l'a contacté en se faisant passer pour Pierre Kaklamanos. Il a déclaré qu’ils s’étaient déjà parlé par le biais d’appels réels, ce qui donnait l’impression que la sensibilisation était normale. L'arnaque a commencé par une demande de discussion sur Atrium, suivie d'une réunion Microsoft Teams programmée pour le lendemain. L'invitation comprenait un lien Teams et tout semblait légitime. Lorsque Pey a rejoint le groupe, il a déclaré avoir vu le visage de Pierre, entendu sa voix et remarqué deux autres membres supposés de la Fondation Cardano. Il a déclaré plus tard qu’il pensait que l’IA avait généré toute l’interaction. Pendant l'appel, la connexion a pris du retard et le système a affirmé que son logiciel Teams était obsolète. Il a ensuite été invité à installer une nouvelle version à l'aide de Microsoft Terminal. Pey a déclaré qu'il avait suivi les instructions car il utilisait rarement Teams et pensait que le processus était standard. La batterie de son ordinateur portable était faible, il l'a donc éteint peu de temps après. Cet arrêt rapide a probablement limité les dégâts. Il a ensuite envoyé un message au vrai Pierre et lui a suggéré de déplacer la conversation vers Google Meet. La personne a répondu en disant qu'elle était devenue occupée et a demandé un report. Cet échange a éveillé des soupçons et a amené Pey à réaliser que l'appel était frauduleux. Il a ensuite averti les utilisateurs de ne rien faire confiance et de tout vérifier, ajoutant que l'IA avait rendu les escroqueries beaucoup plus convaincantes, même pour les personnes techniquement expérimentées. Méfiez-vous des hacks comme ceux-ci 👇 https://t.co/hQejLFo2ON — CZ 🔶 BNB (@cz_binance) 24 avril 2026 Le co-fondateur de Binance, Changpeng Zhao, largement connu sous le nom de CZ, a republié l'avertissement et a exhorté les utilisateurs à rester vigilants. Sa réponse a été brève, mais elle a fait connaître l’incident à un public cryptographique plus large. Les membres de la communauté ont également partagé des rapports faisant état d'attaques similaires impliquant des comptes Telegram piratés et de faux liens Calendly. Dans plusieurs cas, les fraudeurs se sont fait passer pour des contacts connus de l’industrie pour organiser des réunions. Le modèle commence souvent par un profil de confiance envoyant une demande de planification. Les victimes rejoignent ensuite un faux appel professionnel, suivi de l'installation de logiciels malveillants. Ces escroqueries s’appuient de plus en plus sur la vidéo deepfake et la technologie vocale clonée. Cela rend la vérification visuelle traditionnelle beaucoup moins fiable qu’auparavant. Les professionnels de la sécurité de la cryptographie continuent de conseiller aux utilisateurs de confirmer leur identité via des canaux officiels distincts. La vérification directe via des contacts connus reste l'étape la plus sûre. Ils mettent également en garde contre l’exécution de commandes de terminal ou de mises à jour logicielles lors de réunions non sollicitées. Même les visages familiers peuvent désormais participer à des tentatives de fraude très convaincantes. Cet incident s'ajoute à une liste croissante d'attaques d'ingénierie sociale ciblant les développeurs, les fondateurs et les investisseurs. À mesure que les outils d’IA s’améliorent, les attaquants affinent leurs méthodes qui exploitent la confiance plutôt que les vulnérabilités techniques.