La loi GUARD risque d’éroder les droits du premier amendement, prévient John Coleman

Un projet de loi du Sénat visant à protéger les enfants contre les chatbots IA suscite les critiques des défenseurs des libertés civiles qui affirment qu'il ferait quelque chose de bien plus dangereux : construire l'infrastructure d'une surveillance en ligne liée à l'identité tout en restreignant l'accès à la parole protégée par la Constitution.
La loi GUARD, introduite par le sénateur Josh Hawley, imposerait la vérification de l’âge pour accéder aux « compagnons IA », la catégorie de systèmes d’IA conçus pour des interactions conversationnelles de type humain. Les utilisateurs de moins de 18 ans seraient entièrement bannis.
Ce que la loi GUARD exige réellement
Le mécanisme principal du projet de loi est la vérification obligatoire de l’âge, mais pas le type de vérification dans laquelle vous cochez une case confirmant que vous avez plus de 18 ans. L’auto-attestation est explicitement exclue.
Au lieu de cela, la loi GUARD exige des identifiants du monde réel. Pensez aux dossiers financiers, aux documents émis par le gouvernement ou à d'autres points de données liés à l'identité. En anglais : pour discuter avec une IA, vous devez prouver qui vous êtes dans le monde réel, en créant une trace écrite reliant votre identité à votre activité en ligne.
La version originale du projet de loi ratissait large, couvrant presque tous les chatbots IA. Après les réticences des organisations de défense des droits civiques, les législateurs ont restreint la portée pour se concentrer spécifiquement sur les « compagnons de l’IA », une catégorie plus ciblée. Mais les exigences en matière de vérification de l’âge sont restées strictes et les préoccupations fondamentales concernant la vie privée et la liberté d’expression n’ont pas disparu avec la définition plus étroite.
Définir ce qui constitue un « compagnon IA » par rapport à un chatbot classique n’est pas un exercice trivial. La frontière entre un robot de service client, un tuteur éducatif en IA et un compagnon de conversation devient rapidement floue. Cette ambiguïté crée un risque pour les développeurs qui pourraient se conformer de manière excessive pour éviter toute responsabilité, restreignant ainsi l’accès à des outils qui n’ont jamais été la cible prévue du projet de loi.
Le problème du premier amendement
Le projet de loi ne fait pas qu’ajouter des difficultés d’accès. Il crée une interdiction catégorique pour toute une tranche d’âge. Les critiques soutiennent que cela va bien au-delà de ce que les cadres juridiques existants autorisent, même pour les contenus qui pourraient être considérés comme préjudiciables aux mineurs.
L’Electronic Frontier Foundation s’est montrée particulièrement bruyante, qualifiant la loi de mesure de surveillance portant atteinte à la vie privée. Leur argument est simple : la vérification obligatoire de l’identité ne concerne pas que les mineurs. Cela concerne tout le monde, car chaque utilisateur doit prouver son âge pour accéder au service. Cela signifie que les adultes transmettent des données personnelles sensibles simplement pour avoir une conversation avec un logiciel.
L’EFF prévient également que le projet de loi pourrait limiter l’accès des adolescents aux outils numériques vitaux et que l’effet dissuasif s’étend au-delà des utilisateurs individuels. Les développeurs et les entreprises qui créent des outils d’IA sont confrontés à un environnement de conformité dans lequel la stratégie juridique la plus sûre consiste à restreindre davantage, et non moins. Lorsque la pénalité en cas d'erreur de vérification de l'âge est sévère, la décision commerciale rationnelle consiste à surbloquer. Cela signifie que les utilisations éducatives légitimes, les outils de soutien à la santé mentale et les applications créatives pourraient tous devenir des dommages collatéraux.
Le problème des infrastructures de surveillance
Une fois que les plateformes sont tenues de collecter et de vérifier des documents d’identité réels, cette infrastructure de données ne disparaît pas lorsque le débat politique avance. Cela devient une caractéristique permanente de la façon dont les gens interagissent avec les systèmes d’IA, une base de données reliant les identités réelles aux conversations numériques.
Le cadre de l’EFF est brutal : il s’agit d’une architecture de surveillance déguisée en législation sur la sécurité des enfants. Les systèmes qui vérifient l’identité collectent nécessairement l’identité, et les données collectées sont des données qui peuvent être violées, assignées à comparaître ou réutilisées.
Les mandats de vérification de l’âge créent des barrières à l’entrée qui affectent de manière disproportionnée les petites entreprises et les projets open source. Une grande entreprise technologique peut absorber le coût de la construction d’une infrastructure de vérification d’identité. Une startup composée de deux personnes construisant une IA éducative ne le peut pas.
Ce que cela signifie pour l'industrie de l'IA
Le rétrécissement de « tous les chatbots IA » aux « compagnons IA » montre que les périodes de lobbying et de commentaires publics peuvent façonner le texte final. Mais l’architecture de base de la vérification d’identité a survécu intacte à cette révision.
Pour les utilisateurs, l’impact pratique dépend entièrement de la manière dont le « compagnon IA » est défini dans la mise en œuvre réglementaire. Si la définition reste étroite, la plupart des gens ne le remarqueront pas. Si elle s’étend à travers l’élaboration de règles ou l’interprétation judiciaire, l’exigence de vérification pourrait toucher un éventail d’interactions de l’IA beaucoup plus large que ce que suggèrent actuellement les auteurs du projet de loi.