La Ley GUARD corre el riesgo de erosionar los derechos de la Primera Enmienda, advierte John Coleman

Un proyecto de ley del Senado diseñado para proteger a los niños de los chatbots de inteligencia artificial está provocando críticas de los defensores de las libertades civiles, que dicen que haría algo mucho más peligroso: construir la infraestructura para la vigilancia en línea vinculada a la identidad y al mismo tiempo restringir el acceso al discurso protegido constitucionalmente.
La Ley GUARD, presentada por el senador Josh Hawley, exigiría la verificación de la edad para acceder a “compañeros de IA”, la categoría de sistemas de IA diseñados para interacciones conversacionales similares a las humanas. Los usuarios menores de 18 años serían prohibidos por completo.
Lo que realmente requiere la Ley GUARD
El mecanismo principal del proyecto de ley es la verificación de edad obligatoria, pero no del tipo en el que se hace clic en una casilla de verificación para confirmar que se es mayor de 18 años. La autocertificación se excluye explícitamente.
En cambio, la Ley GUARD exige identificadores del mundo real. Piense en registros financieros, documentos emitidos por el gobierno u otros puntos de datos vinculados a la identidad. En inglés: para chatear con una IA, necesitarías demostrar quién eres en el mundo real, creando un rastro en papel que conecte tu identidad con tu actividad en línea.
La versión original del proyecto de ley abarcó una amplia red que abarcaba casi todos los chatbots de IA. Después del rechazo de las organizaciones de derechos civiles, los legisladores redujeron el alcance para centrarse específicamente en los “compañeros de IA”, una categoría más específica. Pero los requisitos de verificación de edad siguen siendo estrictos y las preocupaciones fundamentales sobre la privacidad y la expresión no han desaparecido con la definición más estricta.
Definir lo que se considera un “compañero de IA” frente a un chatbot normal no es un ejercicio trivial. La línea entre un robot de servicio al cliente, un tutor educativo de IA y un compañero de conversación se vuelve borrosa rápidamente. Esa ambigüedad crea un riesgo para los desarrolladores que podrían cumplir en exceso para evitar responsabilidades, restringiendo efectivamente el acceso a herramientas que nunca fueron el objetivo previsto del proyecto de ley.
El problema de la Primera Enmienda
El proyecto de ley no sólo añade fricción al acceso. Crea una prohibición categórica para todo un grupo de edad. Los críticos argumentan que esto va mucho más allá de lo que permiten los marcos legales existentes, incluso para contenidos que podrían considerarse perjudiciales para los menores.
La Electronic Frontier Foundation ha sido particularmente ruidosa y ha caracterizado la ley como una medida de vigilancia que infringe la privacidad. Su argumento es sencillo: la verificación de identidad obligatoria no afecta sólo a los menores. Afecta a todos, porque cada usuario debe acreditar su edad para acceder al servicio. Eso significa que los adultos entregan datos personales confidenciales sólo para tener una conversación con el software.
La EFF también advierte que el proyecto de ley podría limitar el acceso de los adolescentes a herramientas digitales vitales y que el efecto paralizador se extiende más allá de los usuarios individuales. Los desarrolladores y las empresas que crean herramientas de inteligencia artificial se enfrentan a un panorama de cumplimiento en el que la estrategia legal más segura es restringir más, no menos. Cuando la penalización por realizar una verificación incorrecta de la edad es severa, la decisión empresarial racional es bloquear demasiado. Eso significa que los usos educativos legítimos, las herramientas de apoyo a la salud mental y las aplicaciones creativas podrían convertirse en daños colaterales.
La preocupación por la infraestructura de vigilancia
Una vez que se requiere que las plataformas recopilen y verifiquen documentos de identidad del mundo real, esa infraestructura de datos no desaparece cuando avanza el debate político. Se convierte en una característica permanente de cómo las personas interactúan con los sistemas de inteligencia artificial, una base de datos que vincula identidades reales con conversaciones digitales.
El marco de la EFF es contundente: se trata de una arquitectura de vigilancia disfrazada de legislación sobre seguridad infantil. Los sistemas que verifican la identidad necesariamente recopilan la identidad, y los datos recopilados son datos que pueden violarse, citarse o reutilizarse.
Los mandatos de verificación de edad crean barreras de entrada que afectan desproporcionadamente a las empresas más pequeñas y a los proyectos de código abierto. Una gran empresa de tecnología puede absorber el costo de construir una infraestructura de verificación de identidad. Una startup de dos personas que construye una IA educativa no puede hacerlo.
Qué significa esto para la industria de la IA
La reducción de “todos los chatbots de IA” a “compañeros de IA” muestra que los períodos de lobby y comentarios públicos pueden dar forma al texto final. Pero la arquitectura central de la verificación de identidad sobrevivió intacta a esa revisión.
Para los usuarios, el impacto práctico depende enteramente de qué tan ampliamente se defina el “compañero de IA” en la implementación regulatoria. Si la definición sigue siendo estrecha, la mayoría de la gente no se dará cuenta. Si se expande a través de la elaboración de normas o la interpretación judicial, el requisito de verificación podría afectar a una gama mucho más amplia de interacciones de IA de lo que sugieren actualmente los patrocinadores del proyecto de ley.