Правительство США пересматривает подход к регулированию искусственного интеллекта из-за роста киберугроз

В позиции администрации Трампа в отношении политики ИИ происходит сейсмический сдвиг: она переходит от подхода невмешательства к более интервенционистскому подходу. Катализатором этих изменений является появление передовых моделей искусственного интеллекта, таких как Mythos от Anthropic, которые продемонстрировали сверхъестественную способность обнаруживать скрытые уязвимости в программных системах, создающие значительные риски для национальной безопасности.
В авангарде этого изменения политики находится замечательная способность Mythos выявлять скрытые недостатки в коде, которые ускользнули от обнаружения человеческими аудиторами и традиционными инструментами. Это вызвало переоценку подхода администрации к невмешательству, а также растущее признание того, что последствия бесконтрольного развития ИИ для национальной безопасности слишком велики, чтобы их игнорировать.
В отличие от своей предыдущей позиции по дерегулированию, администрация сейчас изучает возможность введения обязательной проверки безопасности для новых моделей ИИ перед их публичным выпуском. Согласно сообщению The New York Times от 4 мая 2026 года, этот шаг ознаменует значительный сдвиг в подходе правительства к развитию ИИ. На следующий день издание Politico сообщило, что чиновники Белого дома инициировали переговоры с руководителями Anthropic, Google и OpenAI, чтобы обсудить безопасность ИИ и возможность правительственных распоряжений по регулированию разработки передовых моделей ИИ.
Проблемы, вызывающие этот сдвиг в политике, далеки от теоретических. Компания Mythos успешно выявила уязвимости, имеющие реальные последствия для национальной безопасности, подчеркнув потенциальную возможность враждебных субъектов использовать эти недостатки в больших масштабах. Как предупредил TechPolicy.press 8 мая, полагаться исключительно на государственную проверку может быть недостаточно для снижения этих рисков безопасности, и для обеспечения комплексной безопасности может потребоваться независимое тестирование.
Последствия этого развития выходят за рамки ИИ и имеют значительные потенциальные последствия для криптоиндустрии. Если правительство США решит потребовать предварительные проверки безопасности для централизованных моделей ИИ, вполне вероятно, что контроль со стороны регулирующих органов в конечном итоге расширится и охватит децентрализованные проекты ИИ, включая смарт-контракты, протоколы DeFi и агенты ИИ в цепочке. Эти проекты основаны на сложном коде, который потенциально может быть проверен такими инструментами, как Mythos, что подчеркивает необходимость усиленных мер безопасности.
Недавние публикации в социальных сетях, опубликованные с 4 по 7 мая, отражают растущий консенсус в отношении того, что центры обработки данных искусственного интеллекта следует рассматривать как важнейшие национальные активы, достойные усиленной защиты и контроля. Геополитическое измерение этой проблемы также становится все более выраженным по мере эскалации напряженности между США и Китаем по поводу развития искусственного интеллекта. Администрация США прекрасно осознает, что китайская модель искусственного интеллекта, сравнимая с Mythos, потенциально может быть использована для выявления уязвимостей в американской инфраструктуре, что еще больше усиливает необходимость принятия регулирующих мер.
Хотя указ еще не издан, переговоры Белого дома с Anthropic, Google и OpenAI демонстрируют четкое направление движения, подчеркивая растущее признание администрацией необходимости более активного подхода к безопасности ИИ. Поскольку ситуация продолжает развиваться, вполне вероятно, что криптоиндустрия будет уделять пристальное внимание развитию событий, признавая потенциальную возможность регулирования и необходимость усиления мер безопасности для смягчения рисков, связанных с децентрализованными системами на базе искусственного интеллекта.