Организация «Американцы за ответственные инновации» призывает США обязать проводить проверки безопасности ИИ для государственных контрактов

«Американцы за ответственные инновации», некоммерческая организация, занимающаяся политикой в области искусственного интеллекта, подталкивает администрацию Трампа к требованию обязательной проверки безопасности для любой лаборатории искусственного интеллекта, которая хочет получить доступ к правительственным контрактам США. Рекомендация, сделанная 11 мая 2026 года, нацелена на разработчиков так называемых «пограничных» моделей — самых мощных и потенциально опасных существующих систем искусственного интеллекта.
Предложение ARI основано на структурированных оценках безопасности, которые будут служить механизмом пропуска для федеральных закупок. Лаборатория искусственного интеллекта, создающая передовые модели, должна будет продемонстрировать, что ее системы были проверены на предмет потенциального злоупотребления, прежде чем претендовать на какой-либо государственный контракт.
6 апреля 2026 года группа предупредила Управление общих служб о рисках, заложенных в расплывчатых положениях о «любом законном использовании», содержащихся в существующих правилах закупок ИИ. Эти положения, по мнению ARI, по сути, дают системам искусственного интеллекта карт-бланш на работу без каких-либо серьезных ограничений, когда они находятся внутри государственных систем.
ARI указывает на ежегодный рост объемов вычислений ИИ в 4,2 раза с 2010 года, и эта траектория предполагает, что возможности передовых моделей расширяются гораздо быстрее, чем способность правительства их оценивать. Между тем, 82% населения не доверяют техническим руководителям самостоятельно регулировать ИИ.
24 марта 2026 года CFTC объявила о создании целевой группы, специально нацеленной на регулирование роли искусственного интеллекта в цифровых активах. ARI относительно новичок в сфере регулирования ИИ, и группа в своих рекомендациях не указывала явной связи с криптовалютой или цифровыми активами.
Если обязательные проверки безопасности станут реальностью, самое непосредственное воздействие окажет на компании, занимающиеся искусственным интеллектом, которые получают значительные доходы от государственных контрактов. Затраты на соблюдение требований возрастут. Сроки заключения контрактов удлинятся. Небольшие стартапы в области искусственного интеллекта, которым часто не хватает ресурсов для тщательного аудита безопасности, могут оказаться полностью исключенными из федерального рынка.
Целевая группа CFTC по ИИ и цифровым активам предполагает, что регулирующие органы уже задумываются о том, как управление ИИ пересекается с системами на основе блокчейна. Инвесторы в токены и проекты, связанные с ИИ, должны обратить внимание на то, как это предложение воспринято администрацией и Конгрессом, поскольку мандаты безопасности, набирающие политический импульс, потребуют от рынка более высоких затрат на соблюдение требований во всем секторе ИИ, включая фирмы, строящиеся на стыке ИИ и криптовалюты.