Cryptonews

La cybercriminalité pourrait être la seule tâche que l’IA n’accepte pas, selon une étude

Source
CryptoNewsTrend
Published
La cybercriminalité pourrait être la seule tâche que l’IA n’accepte pas, selon une étude

En bref

Les chercheurs de Cambridge, Édimbourg et Strathclyde ont analysé 97 895 fils de discussion sur la cybercriminalité publiés après le lancement de ChatGPT.

Les outils de « Dark AI » comme WormGPT ont généré un buzz culturel mais n’ont produit presque aucun logiciel malveillant fonctionnel, tandis que les chatbots jailbreakés sont de plus en plus difficiles à maintenir en activité pendant plus de quelques jours.

Le plus grand crime mesurable lié à l’IA n’est pas le piratage. Il s’agit de spams SEO produits en masse, d’escroqueries amoureuses et de nus générés par l’IA vendus pour un dollar chacun.

Depuis trois ans, les entreprises de cybersécurité, les gouvernements et les laboratoires d’IA préviennent que l’IA générative libérerait une nouvelle génération de pirates informatiques surpuissants. Selon un nouvel article universitaire qui a été consulté, les pirates suralimentés utilisent principalement ChatGPT pour écrire du spam et générer des nus pour le plaisir.

L'étude, intitulée Stand-Alone Complex or Vibercrime ?, a été publiée sur arXiv par des chercheurs de Cambridge et d'autres universités et vise à comprendre comment la cybercriminalité clandestine adopte réellement l'IA, et non comment les fournisseurs de cybersécurité le prétendent.

"Nous présentons ici l'une des premières tentatives d'étude empirique à méthodes mixtes sur les premiers modèles d'adoption de GenAI dans la cybercriminalité", ont écrit les chercheurs.

L'équipe a analysé 97 895 fils de discussion publiés après le lancement de ChatGPT en novembre 2022, tirés de l'ensemble de données CrimeBB du Cambridge Cybercrime Centre de forums underground et dark web. Ils ont exécuté des modèles de sujets, lu manuellement plus de 3 200 fils de discussion et se sont immergés ethnographiquement dans la scène.

La conclusion n’est pas flatteuse pour la communauté AI Doom : 97,3 % des fils de discussion de l’échantillon ont été classés comme « autres », ce qui signifie qu’ils ne concernent pas du tout l’utilisation de l’IA à des fins criminelles. Seulement 1,9 % impliquaient une personne utilisant des outils de codage d’ambiance.

« Rien de plus qu'un ChatGPT sans restriction »

Vous vous souvenez de WormGPT, FraudGPT et de la vague de chatbots prétendument malveillants qui ont fait la une des journaux en 2023 ? Les données du forum racontent une autre histoire.

Selon les chercheurs, la plupart des publications sur les produits « Dark AI » étaient des personnes réclamant un accès gratuit, des spéculations vaines et des plaintes selon lesquelles les outils ne fonctionnaient pas réellement. Un développeur d’un service populaire de Dark AI a finalement admis aux membres du forum que le produit était un exercice de marketing.

"En fin de compte, [CybercrimeAI] n'est rien de plus qu'un ChatGPT sans restriction", a écrit le développeur avant l'arrêt du projet. "N'importe qui sur Internet peut utiliser une technique de jailbreak bien connue et obtenir les mêmes résultats, sinon meilleurs."

Fin 2024, affirment les chercheurs, les jailbreaks pour les modèles grand public étaient devenus jetables. La plupart arrêtent de travailler au bout d’une semaine ou moins. Les modèles open source peuvent être jailbreakés indéfiniment, mais ils sont lents, gourmands en ressources et figés dans le temps.

« Les garde-fous pour les systèmes d’IA s’avèrent à la fois utiles et efficaces », concluent les auteurs, dans ce qu’ils appellent eux-mêmes une conclusion contre-intuitive pour un article critique.

Le codage vibratoire est réel. Le piratage Vibe, pour la plupart, n'est pas

Le journal aborde directement le rapport largement médiatisé d'Anthropic d'août 2025, affirmant que Claude Code avait été utilisé pour mener une campagne d'extorsion de type « vibe hacking » contre 17 organisations. Les données de l’équipe de Cambridge ne montrent tout simplement pas cette tendance dans le monde souterrain au sens large.

Dans les forums qu'ils ont étudiés, les assistants de codage IA sont utilisés de la même manière que les développeurs traditionnels les utilisent : comme remplacements de saisie semi-automatique et de Stack Overflow pour les codeurs déjà qualifiés. Les acteurs peu qualifiés s’en tiennent à des scripts prédéfinis, car ceux-ci fonctionnent.

Les chercheurs ont découvert que même les pirates ne font pas confiance à leurs outils de piratage codés par ambiance. "Le codage assisté par l'IA est une arme à double tranchant. Il accélérera le développement mais amplifiera également les risques tels que le code non sécurisé et les vulnérabilités de la chaîne d'approvisionnement", a déclaré un utilisateur dans un forum surveillé par des chercheurs.

Un autre a mis en garde contre une perte de compétences à long terme : « Il est clair maintenant que l'utilisation de l'IA pour le code provoque une dégradation négative très rapide de vos compétences », a écrit un hacker dans un forum, « Si votre objectif est simplement de provoquer des escroqueries SaaS et que vous ne vous souciez pas de la qualité/sécurité/performance du code, il peut être viable de vibrer le code. (Cela semble également viable pour le phishing). »

Cela contraste fortement avec les prévisions alarmistes d’Europol, qui avertissait en 2025 qu’une IA entièrement autonome pourrait un jour contrôler les réseaux criminels.

Où l’IA aide réellement les criminels

La perturbation, lorsqu’elle apparaît, se situe au bas de la chaîne alimentaire.

Les fraudeurs SEO utilisent les LLM pour produire en masse du spam sur les blogs afin de lutter contre la baisse des revenus publicitaires. Les fraudeurs romantiques et les opérateurs d'eWhoring se tournent vers le clonage de voix et la génération d'images. Les arnaqueurs qui veulent devenir riches rapidement produisent des livres électroniques écrits par l’IA et les vendent à 20 $ pièce.

Le marché le plus inquiétant découvert par les chercheurs concernait les services de génération d’images nues. Un opérateur a annoncé : « Je suis capable de rendre n'importe quelle fille nue avec une IA… 1 photo = 1 $, 10 photos = 8 $, 50 photos = 40 $, 90 photos = 75 $. »

Rien de tout cela n’est une cybercriminalité sophistiquée. Il s’agit de la même activité à faible marge et à volume élevé qui a alimenté l’industrie du spam pendant deux décennies, fonctionnant désormais avec des outils légèrement meilleurs.

Les chercheurs

La cybercriminalité pourrait être la seule tâche que l’IA n’accepte pas, selon une étude