Laut einer Studie könnte Cyberkriminalität der einzige Job sein, den KI nicht übernimmt

Kurz gesagt
Forscher aus Cambridge, Edinburgh und Strathclyde analysierten 97.895 Forenthreads zum Thema Cyberkriminalität, die nach dem Start von ChatGPT gepostet wurden.
„Dark AI“-Tools wie WormGPT erregten kulturelles Aufsehen, produzierten aber fast keine funktionierende Malware, während es immer schwieriger wird, Chatbots mit Jailbreak länger als ein paar Tage am Laufen zu halten.
Das größte messbare KI-gesteuerte Verbrechen ist nicht Hacking. Dabei handelt es sich um massenhaft produzierten SEO-Spam, Liebesbetrug und KI-generierte Nacktfotos, die jeweils für einen Dollar verkauft werden.
Seit drei Jahren warnen Cybersicherheitsfirmen, Regierungen und KI-Labore, dass generative KI eine neue Generation leistungsstarker Hacker hervorbringen würde. Laut einer neuen wissenschaftlichen Arbeit, die tatsächlich untersucht wurde, verwenden die hochgerüsteten Hacker ChatGPT hauptsächlich, um Spam zu schreiben und zum Spaß Aktfotos zu generieren.
Die Studie mit dem Titel „Stand-Alone Complex or Vibercrime?“ wurde von Forschern aus Cambridge und anderen Universitäten auf arXiv veröffentlicht und zielt darauf ab, zu verstehen, wie der Untergrund der Cyberkriminalität KI tatsächlich einsetzt, und nicht, wie Cybersicherheitsanbieter dies behaupten.
„Wir präsentieren hier einen der ersten Versuche einer empirischen Studie mit gemischten Methoden über frühe Muster der GenAI-Einführung im Untergrund der Cyberkriminalität“, schrieben die Forscher.
Das Team analysierte 97.895 Forenthreads, die nach dem Start von ChatGPT im November 2022 gepostet wurden, und stammte aus dem CrimeBB-Datensatz des Cambridge Cybercrime Centre zu Untergrund- und Dark-Web-Foren. Sie führten Themenmodelle durch, lasen manuell mehr als 3.200 Threads und tauchten ethnographisch in die Szene ein.
Die Schlussfolgerung ist für die KI-Doom-Community wenig schmeichelhaft: 97,3 % der Threads in der Stichprobe wurden als „andere“ eingestuft, was bedeutet, dass es eigentlich überhaupt nicht um den Einsatz von KI für Kriminalität geht. Nur 1,9 % betrafen jemanden, der Vibe-Coding-Tools nutzte.
„Nichts weiter als ein uneingeschränkter ChatGPT“
Erinnern Sie sich an WormGPT, FraudGPT und die Welle vermeintlich bösartiger Chatbots, die im Jahr 2023 für Schlagzeilen sorgten? Die Forumsdaten erzählen eine andere Geschichte.
Die Forscher fanden heraus, dass es sich bei den meisten Posts über „Dark AI“-Produkte um Menschen handelte, die um freien Zugang bettelten, müßige Spekulationen anstellten und sich darüber beschwerten, dass die Tools tatsächlich nicht funktionierten. Ein Entwickler eines beliebten Dark-AI-Dienstes gab schließlich gegenüber Forumsmitgliedern zu, dass es sich bei dem Produkt um eine Marketingübung handelte.
„Letztendlich ist [CybercrimeAI] nichts anderes als ein uneingeschränktes ChatGPT“, schrieb der Entwickler, bevor das Projekt eingestellt wurde. „Jeder im Internet kann eine bekannte Jailbreak-Technik nutzen und die gleichen, wenn nicht sogar bessere Ergebnisse erzielen.“
Bis Ende 2024, sagen die Forscher, seien Jailbreaks für Mainstream-Modelle wegwerfbar geworden. Die meisten hören innerhalb einer Woche oder weniger auf zu arbeiten. Open-Source-Modelle können auf unbestimmte Zeit gejailbreakt werden, sie sind jedoch langsam, ressourcenintensiv und in der Zeit eingefroren.
„Leitplanken für KI-Systeme erweisen sich sowohl als nützlich als auch effektiv“, kommen die Autoren zu dem Schluss, was sie selbst als kontraintuitiven Befund für eine kritische Arbeit bezeichnen.
Vibe-Codierung ist real. Vibe-Hacking ist meistens nicht der Fall
Das Papier geht direkt auf den weit verbreiteten Bericht von Anthropic vom August 2025 ein, in dem behauptet wird, Claude Code sei für die Durchführung einer „Vibe-Hacking“-Erpressungskampagne gegen 17 Organisationen eingesetzt worden. Die Daten des Cambridge-Teams zeigen dieses Muster im weiteren Untergrund einfach nicht.
In den von ihnen untersuchten Foren werden KI-Codierungsassistenten auf die gleiche Weise eingesetzt, wie Mainstream-Entwickler sie verwenden: als Ersatz für Autovervollständigung und Stack Overflow für bereits erfahrene Programmierer. Geringqualifizierte Schauspieler bleiben bei vorgefertigten Drehbüchern, weil vorgefertigte Drehbücher funktionieren.
Die Forscher fanden heraus, dass selbst Hacker ihren vibe-codierten Hacking-Tools nicht vertrauen. „KI-gestützte Codierung ist ein zweischneidiges Schwert. Sie beschleunigt die Entwicklung, erhöht aber auch Risiken wie unsicheren Code und Schwachstellen in der Lieferkette“, sagte ein Benutzer in einem von Forschern überwachten Forum.
Ein anderer warnte vor einem langfristigen Fähigkeitsverlust: „Es ist jetzt klar, dass die Verwendung von KI für Code zu einer sehr schnellen negativen Verschlechterung Ihrer Fähigkeiten führt“, schrieb ein Hacker in einem Forum. „Wenn Ihr Ziel nur darin besteht, SaaS-Betrügereien zu verbreiten, und Sie sich nicht um Codequalität/-sicherheit/-leistung kümmern, kann es sinnvoll sein, Vibe-Code zu verwenden. (Scheint auch für Phishing sinnvoll).“
Dies steht im krassen Gegensatz zu den alarmierenden Prognosen von Europol, die im Jahr 2025 davor warnten, dass eine vollständig autonome KI eines Tages kriminelle Netzwerke kontrollieren könnte.
Wo KI Kriminellen tatsächlich hilft
Wenn die Störung auftritt, befindet sie sich am Ende der Nahrungskette.
SEO-Betrüger nutzen LLMs zur Massenproduktion von Blog-Spam, um sinkende Werbeeinnahmen zu erzielen. Liebesbetrüger und eWhoring-Betreiber setzen auf das Klonen von Stimmen und die Generierung von Bildern. Wer schnell reich wird, produziert am laufenden Band von KI geschriebene E-Books, die für 20 US-Dollar pro Stück verkauft werden.
Der beunruhigendste Markt, den die Forscher fanden, betraf Dienste zur Erstellung von Nacktbildern. Ein Betreiber machte Werbung: „Mit einer KI kann ich jedes Mädchen nackt machen … 1 Bild = 1 $, 10 Bilder = 8 $, 50 Bilder = 40 $, 90 Bilder = 75 $.“
Nichts davon ist raffinierte Cyberkriminalität. Es ist das gleiche Geschäft mit geringen Margen und hohem Volumen, das die Spam-Branche zwei Jahrzehnte lang angetrieben hat, jetzt jedoch mit etwas besseren Tools.
Die Forscher