Deepfake-Betrug der Cardano Foundation zielt auf Entwickler ab, da CZ eine Warnung herausgibt

Inhaltsverzeichnis Ein raffinierter Betrug mit KI-generierter Video- und Sprachtechnik hätte beinahe einen bekannten Krypto-Entwickler kompromittiert, der mit dem Cardano-Ökosystem verbunden ist. Der Angreifer gab sich während eines scheinbar legitimen Microsoft Teams-Anrufs als Pierre Kaklamanos aus, Leiter der Abteilung Digital Assets Adoption bei der Cardano Foundation. Das Ziel, der Entwickler Big Pey, sagte, der Betrug sei beinahe gelungen, nachdem er den Anweisungen während des gefälschten Treffens gefolgt sei. Changpeng Zhao, Mitbegründer von Binance, verschärfte die Warnung später, als ähnliche Fälle in Krypto-Communitys auftauchten. Big Pey teilte den Vorfall auf X mit und erklärte, dass der Angreifer ihn kontaktiert habe, während er vorgab, Pierre Kaklamanos zu sein. Er sagte, sie hätten zuvor durch echte Telefongespräche miteinander gesprochen, was die Kontaktaufnahme normal erscheinen ließe. Der Betrug begann mit der Bitte, Atrium zu besprechen, gefolgt von einer geplanten Microsoft-Teams-Besprechung für den nächsten Tag. Die Einladung enthielt einen Teams-Link und alles sah legitim aus. Als Pey beitrat, sagte er, er habe Pierres Gesicht gesehen, seine Stimme gehört und zwei weitere vermeintliche Mitglieder der Cardano Foundation bemerkt. Später sagte er, er glaube, dass KI die gesamte Interaktion erzeugt habe. Während des Anrufs verzögerte sich die Verbindung und das System behauptete, seine Teams-Software sei veraltet. Anschließend wurde er aufgefordert, über Microsoft Terminal eine neue Version zu installieren. Pey sagte, er habe die Anweisung befolgt, weil er Teams selten verwende und der Meinung sei, dass der Prozess Standard sei. Der Akku seines Laptops war fast leer, also schaltete er ihn kurz darauf ab. Diese schnelle Abschaltung dürfte den Schaden begrenzt haben. Später schrieb er dem echten Pierre eine Nachricht und schlug vor, das Gespräch stattdessen auf Google Meet zu verlagern. Die Person antwortete, dass sie beschäftigt sei und bat um einen neuen Termin. Dieser Austausch erweckte Verdacht und führte dazu, dass Pey erkannte, dass der Anruf betrügerisch war. Später warnte er die Benutzer davor, nichts zu vertrauen und alles zu überprüfen, und fügte hinzu, dass KI Betrügereien selbst für technisch versierte Personen weitaus überzeugender gemacht habe. Achten Sie auf Hacks wie diese 👇 https://t.co/hQejLFo2ON – CZ 🔶 BNB (@cz_binance) 24. April 2026 Binance-Mitbegründer Changpeng Zhao, allgemein bekannt als CZ, veröffentlichte die Warnung erneut und forderte die Benutzer auf, wachsam zu bleiben. Seine Antwort war kurz, aber sie machte den Vorfall einem breiteren Krypto-Publikum zugänglich. Community-Mitglieder teilten auch Berichte über ähnliche Angriffe mit gehackten Telegram-Konten und gefälschten Calendly-Links. In mehreren Fällen gaben Betrüger sich als bekannte Branchenkontakte aus, um Treffen zu vereinbaren. Das Muster beginnt oft damit, dass ein vertrauenswürdiges Profil eine Planungsanfrage sendet. Die Opfer nehmen dann an einem gefälschten Geschäftsanruf teil, bei dem die Installation von Malware erfolgt. Diese Betrügereien stützen sich zunehmend auf Deepfake-Videos und geklonte Sprachtechnologie. Dadurch ist die herkömmliche visuelle Überprüfung weitaus weniger zuverlässig als zuvor. Sicherheitsexperten im gesamten Kryptobereich raten Benutzern weiterhin, ihre Identität über separate offizielle Kanäle zu bestätigen. Die direkte Verifizierung durch bekannte Kontakte bleibt der sicherste Schritt. Sie warnen außerdem davor, während unaufgeforderter Besprechungen Terminalbefehle oder Software-Updates auszuführen. Selbst bekannte Gesichter können nun Teil überzeugender Betrugsversuche sein. Der Vorfall ergänzt eine wachsende Liste von Social-Engineering-Angriffen, die auf Entwickler, Gründer und Investoren abzielen. Mit der Verbesserung der KI-Tools verfeinern Angreifer ihre Methoden, die Vertrauen anstelle technischer Schwachstellen ausnutzen.