Cryptonews

Киберпреступность может быть единственной работой, за которую ИИ не берется, предполагает исследование

Source
CryptoNewsTrend
Published
Киберпреступность может быть единственной работой, за которую ИИ не берется, предполагает исследование

Вкратце

Исследователи из Кембриджа, Эдинбурга и Стратклайда проанализировали 97 895 тем на форумах по киберпреступности, опубликованных после запуска ChatGPT.

Инструменты «темного ИИ», такие как WormGPT, вызвали ажиотаж в обществе, но практически не создали работающего вредоносного ПО, а взломанным чат-ботам становится все труднее продолжать работать более нескольких дней.

Крупнейшее измеримое преступление, совершаемое искусственным интеллектом, — это не хакерство. Это массовый SEO-спам, романтические мошенничества и созданные искусственным интеллектом обнаженные изображения, продаваемые по доллару за штуку.

В течение трех лет компании по кибербезопасности, правительства и лаборатории искусственного интеллекта предупреждали, что генеративный искусственный интеллект высвободит новое поколение мощных хакеров. Согласно новому научному исследованию, которое действительно было проверено, мощные хакеры в основном используют ChatGPT для рассылки спама и создания обнаженных изображений ради развлечения.

Исследование под названием «Автономный комплекс или Vibercrime?» было опубликовано на arXiv исследователями из Кембриджа и других университетов и направлено на то, чтобы понять, как киберпреступное подполье на самом деле внедряет ИИ, а не то, как об этом говорят поставщики кибербезопасности.

«Мы представляем здесь одну из первых попыток смешанного эмпирического исследования ранних моделей внедрения GenAI в подполье киберпреступности», — пишут исследователи.

Команда проанализировала 97 895 тем на форумах, опубликованных после запуска ChatGPT в ноябре 2022 года, взятых из набора данных CrimeBB Кембриджского центра по борьбе с киберпреступностью, посвященного подпольным и даркнет-форумам. Они запускали тематические модели, вручную читали более 3200 тредов и этнографически погружались в сцену.

Вывод нелестный для сообщества AI-Doom: 97,3% тем в выборке были классифицированы как «другие», то есть вообще не об использовании ИИ в преступных целях. Только 1,9% участвовали в использовании инструментов кодирования Vibe.

«Не более чем неограниченный ChatGPT»

Помните WormGPT, FraudGPT и волну якобы вредоносных чат-ботов, которые заполонили заголовки газет в 2023 году? Данные форума говорят о другом.

Исследователи обнаружили, что большинство сообщений о продуктах «Темного ИИ» были написаны людьми, выпрашивающими бесплатный доступ, пустыми спекуляциями и жалобами на то, что инструменты на самом деле не работают. Один из разработчиков популярного сервиса Dark AI в конце концов признался участникам форума, что этот продукт был маркетинговым ходом.

«В конце концов, [CybercrimeAI] — это не что иное, как неограниченный ChatGPT», — написал разработчик перед закрытием проекта. «Любой человек в Интернете может использовать хорошо известную технику взлома и добиться таких же, если не лучших, результатов».

По словам исследователей, к концу 2024 года джейлбрейки для основных моделей станут одноразовыми. Большинство перестают работать через неделю или меньше. Модели с открытым исходным кодом можно взламывать бесконечно, но они медленны, ресурсоемки и заморожены во времени.

«Защитные меры для систем искусственного интеллекта оказываются одновременно полезными и эффективными», — заключают авторы, что они сами называют противоречивым выводом для критической статьи.

Кодирование Vibe – это реальность. Взлом Vibe, в основном, не

В документе напрямую говорится о широко освещаемом отчете Anthropic от августа 2025 года, в котором утверждается, что Клод Код использовался для проведения кампании по вымогательству «взлома атмосферы» против 17 организаций. Данные кембриджской команды просто не показывают эту закономерность в более широком подполье.

На форумах, которые они изучали, ИИ-помощники по программированию используются так же, как их используют основные разработчики: в качестве замены автозаполнения и переполнения стека для уже опытных программистов. Актеры с низкой квалификацией предпочитают использовать готовые сценарии, потому что готовые сценарии работают.

Исследователи обнаружили, что даже хакеры не доверяют своим инструментам взлома с кодом Vibe. "Кодирование с помощью ИИ — это палка о двух концах. Оно ускорит разработку, но также усилит риски, такие как небезопасный код и уязвимости цепочки поставок", — сказал один из пользователей на форуме, контролируемом исследователями.

Другой предупредил о долгосрочной потере навыков: «Теперь ясно, что использование ИИ для кода приводит к очень быстрой негативной деградации ваших навыков», — написал хакер на форуме. «Если ваша цель — просто реализовать SaaS-мошенничество и вас не волнует качество/безопасность/производительность кода, то это может быть полезно для создания кода vibe. (Также кажется, что это применимо для фишинга)».

Это резко контрастирует с паникёрскими прогнозами Европола, который в 2025 году предупредил, что однажды полностью автономный ИИ сможет контролировать преступные сети.

Где ИИ на самом деле помогает преступникам

Нарушение, когда оно проявляется, находится в самом низу пищевой цепи.

SEO-мошенники используют LLM для массового производства спама в блогах, чтобы добиться снижения доходов от рекламы. Мошенники, занимающиеся любовными романами, и операторы электронного хоринга активно занимаются клонированием голоса и созданием изображений. Люди, стремящиеся быстро разбогатеть, выпускают электронные книги, написанные с помощью искусственного интеллекта, и продают их по 20 долларов за штуку.

Самый тревожный рынок, по мнению исследователей, связан с услугами по созданию изображений обнаженной натуры. Один оператор рекламировал: «Я могу обнажить любую девушку с помощью искусственного интеллекта… 1 фотография = 1 доллар, 10 фотографий = 8 долларов, 50 фотографий = 40 долларов, 90 фотографий 75 долларов».

Ничто из этого не является изощренной киберпреступностью. Это та же самая низкоприбыльная и массовая суета, которая питала спам-индустрию в течение двух десятилетий, но теперь использует несколько более совершенные инструменты.

Исследователи

Киберпреступность может быть единственной работой, за которую ИИ не берется, предполагает исследование