Киберпреступность может быть единственной работой, за которую ИИ не берется, предполагает исследование

Вкратце
Исследователи из Кембриджа, Эдинбурга и Стратклайда проанализировали 97 895 тем на форумах по киберпреступности, опубликованных после запуска ChatGPT.
Инструменты «темного ИИ», такие как WormGPT, вызвали ажиотаж в обществе, но практически не создали работающего вредоносного ПО, а взломанным чат-ботам становится все труднее продолжать работать более нескольких дней.
Крупнейшее измеримое преступление, совершаемое искусственным интеллектом, — это не хакерство. Это массовый SEO-спам, романтические мошенничества и созданные искусственным интеллектом обнаженные изображения, продаваемые по доллару за штуку.
В течение трех лет компании по кибербезопасности, правительства и лаборатории искусственного интеллекта предупреждали, что генеративный искусственный интеллект высвободит новое поколение мощных хакеров. Согласно новому научному исследованию, которое действительно было проверено, мощные хакеры в основном используют ChatGPT для рассылки спама и создания обнаженных изображений ради развлечения.
Исследование под названием «Автономный комплекс или Vibercrime?» было опубликовано на arXiv исследователями из Кембриджа и других университетов и направлено на то, чтобы понять, как киберпреступное подполье на самом деле внедряет ИИ, а не то, как об этом говорят поставщики кибербезопасности.
«Мы представляем здесь одну из первых попыток смешанного эмпирического исследования ранних моделей внедрения GenAI в подполье киберпреступности», — пишут исследователи.
Команда проанализировала 97 895 тем на форумах, опубликованных после запуска ChatGPT в ноябре 2022 года, взятых из набора данных CrimeBB Кембриджского центра по борьбе с киберпреступностью, посвященного подпольным и даркнет-форумам. Они запускали тематические модели, вручную читали более 3200 тредов и этнографически погружались в сцену.
Вывод нелестный для сообщества AI-Doom: 97,3% тем в выборке были классифицированы как «другие», то есть вообще не об использовании ИИ в преступных целях. Только 1,9% участвовали в использовании инструментов кодирования Vibe.
«Не более чем неограниченный ChatGPT»
Помните WormGPT, FraudGPT и волну якобы вредоносных чат-ботов, которые заполонили заголовки газет в 2023 году? Данные форума говорят о другом.
Исследователи обнаружили, что большинство сообщений о продуктах «Темного ИИ» были написаны людьми, выпрашивающими бесплатный доступ, пустыми спекуляциями и жалобами на то, что инструменты на самом деле не работают. Один из разработчиков популярного сервиса Dark AI в конце концов признался участникам форума, что этот продукт был маркетинговым ходом.
«В конце концов, [CybercrimeAI] — это не что иное, как неограниченный ChatGPT», — написал разработчик перед закрытием проекта. «Любой человек в Интернете может использовать хорошо известную технику взлома и добиться таких же, если не лучших, результатов».
По словам исследователей, к концу 2024 года джейлбрейки для основных моделей станут одноразовыми. Большинство перестают работать через неделю или меньше. Модели с открытым исходным кодом можно взламывать бесконечно, но они медленны, ресурсоемки и заморожены во времени.
«Защитные меры для систем искусственного интеллекта оказываются одновременно полезными и эффективными», — заключают авторы, что они сами называют противоречивым выводом для критической статьи.
Кодирование Vibe – это реальность. Взлом Vibe, в основном, не
В документе напрямую говорится о широко освещаемом отчете Anthropic от августа 2025 года, в котором утверждается, что Клод Код использовался для проведения кампании по вымогательству «взлома атмосферы» против 17 организаций. Данные кембриджской команды просто не показывают эту закономерность в более широком подполье.
На форумах, которые они изучали, ИИ-помощники по программированию используются так же, как их используют основные разработчики: в качестве замены автозаполнения и переполнения стека для уже опытных программистов. Актеры с низкой квалификацией предпочитают использовать готовые сценарии, потому что готовые сценарии работают.
Исследователи обнаружили, что даже хакеры не доверяют своим инструментам взлома с кодом Vibe. "Кодирование с помощью ИИ — это палка о двух концах. Оно ускорит разработку, но также усилит риски, такие как небезопасный код и уязвимости цепочки поставок", — сказал один из пользователей на форуме, контролируемом исследователями.
Другой предупредил о долгосрочной потере навыков: «Теперь ясно, что использование ИИ для кода приводит к очень быстрой негативной деградации ваших навыков», — написал хакер на форуме. «Если ваша цель — просто реализовать SaaS-мошенничество и вас не волнует качество/безопасность/производительность кода, то это может быть полезно для создания кода vibe. (Также кажется, что это применимо для фишинга)».
Это резко контрастирует с паникёрскими прогнозами Европола, который в 2025 году предупредил, что однажды полностью автономный ИИ сможет контролировать преступные сети.
Где ИИ на самом деле помогает преступникам
Нарушение, когда оно проявляется, находится в самом низу пищевой цепи.
SEO-мошенники используют LLM для массового производства спама в блогах, чтобы добиться снижения доходов от рекламы. Мошенники, занимающиеся любовными романами, и операторы электронного хоринга активно занимаются клонированием голоса и созданием изображений. Люди, стремящиеся быстро разбогатеть, выпускают электронные книги, написанные с помощью искусственного интеллекта, и продают их по 20 долларов за штуку.
Самый тревожный рынок, по мнению исследователей, связан с услугами по созданию изображений обнаженной натуры. Один оператор рекламировал: «Я могу обнажить любую девушку с помощью искусственного интеллекта… 1 фотография = 1 доллар, 10 фотографий = 8 долларов, 50 фотографий = 40 долларов, 90 фотографий 75 долларов».
Ничто из этого не является изощренной киберпреступностью. Это та же самая низкоприбыльная и массовая суета, которая питала спам-индустрию в течение двух десятилетий, но теперь использует несколько более совершенные инструменты.
Исследователи