ЕС подтверждает, что OpenAI предлагает доступ к модели кибербезопасности, Anthropic отстает

OpenAI передает чиновникам ЕС по кибербезопасности ключи к своему новейшему инструменту защиты с использованием искусственного интеллекта. Anthropic, ее ближайший конкурент, не сделал аналогичного предложения, и европейские регуляторы это заметили.
Европейская комиссия подтвердила, что 11 мая 2026 года OpenAI обязалась предоставить доступ к GPT-5.5-Cyber, специализированной модели кибербезопасности, для оценки и потенциального развертывания киберзащитниками ЕС. Тем временем Anthropic не расширила доступ к своей собственной продвинутой модели Mythos, создавая видимый разрыв в том, как два тяжеловеса ИИ взаимодействуют с одним из самых влиятельных регулирующих органов в мире.
Что на самом деле предлагает OpenAI
GPT-5.5-Cyber — это не просто маркетинговый ход с названием, посвященным безопасности. Модель недавно продемонстрировала свои возможности, выполнив 32-этапную симуляцию кибератаки за 12 часов, предполагая, что она может моделировать и предвидеть сложные цепочки атак, на составление плана которых человеческим командам потребуется значительно больше времени.
Интерес ЕС к такому инструменту имеет смысл, если принять во внимание масштаб проблемы, которую он пытается решить. Только в криптоиндустрии затраты, связанные с киберугрозами, превысили 1,7 миллиарда долларов в 2025 году. Эта оценка полностью вписывается в рамки Закона об искусственном интеллекте, который требует усиления надзора за системами искусственного интеллекта с высоким уровнем риска, особенно за теми, которые развернуты в таких критических областях, как кибербезопасность.
Заметное молчание Anthropic
По состоянию на 13 мая 2026 г. Anthropic не предоставила доступ к Mythos для аналогичной проверки в ЕС. Компания, которая построила свой бренд на безопасности искусственного интеллекта и ответственном развитии, оказалась в неловком положении.
Почему криптовалюте следует уделять внимание
Пересечение моделей кибербезопасности ИИ и инфраструктуры блокчейна больше не является теоретическим. Инструменты искусственного интеллекта все чаще используются для обнаружения угроз в децентрализованных протоколах, платформах обмена и приложениях DeFi. Когда ЕС оценивает такую модель, как GPT-5.5-Cyber, он также косвенно устанавливает стандарты того, как выглядит безопасность на основе искусственного интеллекта в регулируемых средах, включая рынки криптовалют.
Кибер-убытки, связанные с криптовалютами, в размере $1,7 млрд в 2025 году представляют собой одновременно проблему и возможность. Протоколы и биржи, которые могут указывать на меры безопасности, усиленные искусственным интеллектом, могут оказаться в более выгодном положении у регуляторов, которые одновременно ужесточают правила в отношении платформ цифровых активов.
Активное участие OpenAI также может повлиять на отношение инвесторов к решениям безопасности, интегрированным с искусственным интеллектом, в криптопространстве. Аналитики полагают, что сотрудничество OpenAI может проложить путь к будущей интеграции искусственного интеллекта и криптовалюты, что потенциально повлияет на настроения инвесторов в отношении цифровых активов, ориентированных на искусственный интеллект, поскольку игроки рынка ждут дальнейшего развития.