Закон о GUARD рискует подорвать права Первой поправки, предупреждает Джон Коулман

Законопроект Сената, призванный защитить детей от чат-ботов с искусственным интеллектом, вызывает критику со стороны защитников гражданских свобод, которые говорят, что он сделает что-то гораздо более опасное: создаст инфраструктуру для онлайн-наблюдения с использованием личных данных, одновременно ограничивая доступ к речи, защищенной конституцией.
Закон GUARD, представленный сенатором Джошем Хоули, потребует проверки возраста для доступа к «ИИ-компаньонам» — категории систем ИИ, предназначенных для диалогового взаимодействия, подобного человеческому. Пользователи младше 18 лет будут полностью забанены.
Что на самом деле требует Закон об ОХРАНЕ
Основным механизмом законопроекта является обязательная проверка возраста, а не та, при которой вы ставите флажок, подтверждающий, что вам больше 18 лет. Самоподтверждение явно исключено.
Вместо этого Закон GUARD требует использования реальных идентификаторов. Подумайте о финансовых отчетах, государственных документах или других источниках данных, связанных с личностью. По-английски: чтобы пообщаться с ИИ, вам нужно доказать, кто вы есть в реальном мире, создав бумажный след, связывающий вашу личность с вашей онлайн-активностью.
Первоначальная версия законопроекта охватила широкую сеть, охватив почти все чат-боты с искусственным интеллектом. После сопротивления со стороны организаций по защите гражданских прав законодатели сузили сферу применения, сосредоточив внимание конкретно на «ИИ-компаньонах», более целевой категории. Но требования по проверке возраста остались строгими, и фундаментальные опасения по поводу конфиденциальности и свободы слова не исчезли с более узким определением.
Определить, что следует считать «ИИ-компаньоном» по сравнению с обычным чат-ботом, — нетривиальная задача. Граница между ботом для обслуживания клиентов, образовательным наставником по искусственному интеллекту и собеседником быстро стирается. Эта двусмысленность создает риск для разработчиков, которые могут переусердствовать, чтобы избежать ответственности, фактически ограничивая доступ к инструментам, которые никогда не были целью законопроекта.
Проблема Первой поправки
Законопроект не просто усложняет доступ. Это создает категорический запрет для всей возрастной группы. Критики утверждают, что это выходит далеко за рамки того, что допускает существующая правовая база, даже в отношении контента, который может быть сочтен вредным для несовершеннолетних.
Фонд Electronic Frontier Foundation был особенно активен, охарактеризовав закон как меру наблюдения, нарушающую конфиденциальность. Их аргумент прост: обязательная проверка личности касается не только несовершеннолетних. Это касается всех, ведь для доступа к сервису каждый пользователь должен доказать свой возраст. Это означает, что взрослые передают конфиденциальные личные данные только для того, чтобы поговорить с программным обеспечением.
EFF также предупреждает, что законопроект может ограничить доступ подростков к жизненно важным цифровым инструментам и что сдерживающий эффект распространяется не только на отдельных пользователей. Разработчики и компании, создающие инструменты искусственного интеллекта, сталкиваются с ситуацией, когда самая безопасная юридическая стратегия — ограничивать больше, а не меньше. Когда наказание за неправильную проверку возраста сурово, рациональным бизнес-решением является превышение блокировки. Это означает, что законное использование в образовательных целях, инструменты поддержки психического здоровья и творческие приложения могут стать побочным ущербом.
Проблема инфраструктуры наблюдения
Как только платформам потребуется собирать и проверять реальные документы, удостоверяющие личность, эта инфраструктура данных не исчезнет, когда политические дебаты продолжатся. Это становится постоянной особенностью того, как люди взаимодействуют с системами искусственного интеллекта, базой данных, связывающей реальные личности с цифровыми разговорами.
Формулировка EFF очевидна: это архитектура наблюдения, замаскированная под законодательство о безопасности детей. Системы, проверяющие личность, обязательно собирают личность, а собранные данные — это данные, которые можно взломать, вызвать в суд или использовать повторно.
Требование проверки возраста создает барьеры для входа, которые непропорционально сильно влияют на небольшие компании и проекты с открытым исходным кодом. Крупная технологическая фирма может взять на себя расходы на создание инфраструктуры проверки личности. Стартап из двух человек, создающий образовательный ИИ, не может этого сделать.
Что это значит для индустрии искусственного интеллекта
Сужение от «всех чат-ботов с искусственным интеллектом» до «спутников с искусственным интеллектом» показывает, что периоды лоббирования и общественного обсуждения могут сформировать окончательный текст. Но базовая архитектура проверки личности пережила эту ревизию нетронутой.
Для пользователей практическое воздействие полностью зависит от того, насколько широко термин «ИИ-компаньон» будет определен в нормативных актах. Если определение останется узким, большинство людей этого не заметят. Если оно расширится за счет нормотворчества или судебного толкования, требование проверки может затронуть гораздо более широкий спектр взаимодействий ИИ, чем сейчас предполагают авторы законопроекта.