John Coleman warnt: „Der GUARD Act birgt die Gefahr, dass die Rechte des Ersten Verfassungszusatzes ausgehöhlt werden.“

Ein Gesetzesentwurf des Senats zum Schutz von Kindern vor KI-Chatbots stößt auf Kritik von Befürwortern bürgerlicher Freiheiten, die sagen, er würde etwas weitaus Gefährlicheres bewirken: die Infrastruktur für identitätsbezogene Online-Überwachung aufbauen und gleichzeitig den Zugang zu verfassungsrechtlich geschützter Meinungsäußerung einschränken.
Der von Senator Josh Hawley eingeführte GUARD Act würde eine Altersverifizierung für den Zugriff auf „KI-Begleiter“ vorschreiben, die Kategorie von KI-Systemen, die für menschenähnliche Gesprächsinteraktionen konzipiert sind. Benutzer unter 18 Jahren würden vollständig gesperrt.
Was das GUARD Act eigentlich vorschreibt
Der Kernmechanismus des Gesetzesentwurfs ist die obligatorische Altersüberprüfung, jedoch nicht die Art, bei der Sie ein Kontrollkästchen anklicken, um zu bestätigen, dass Sie über 18 Jahre alt sind. Eine Selbstbescheinigung ist ausdrücklich ausgeschlossen.
Stattdessen verlangt der GUARD Act reale Identifikatoren. Denken Sie an Finanzunterlagen, von der Regierung ausgestellte Dokumente oder andere identitätsbezogene Datenpunkte. Auf Englisch: Um mit einer KI zu chatten, müssen Sie beweisen, wer Sie in der realen Welt sind, indem Sie eine Papierspur erstellen, die Ihre Identität mit Ihren Online-Aktivitäten verbindet.
Die ursprüngliche Version des Gesetzentwurfs deckte nahezu alle KI-Chatbots ab. Nach dem Widerstand von Bürgerrechtsorganisationen schränkte der Gesetzgeber den Anwendungsbereich ein und konzentrierte sich gezielt auf „KI-Begleiter“, eine gezieltere Kategorie. Die Anforderungen an die Altersüberprüfung blieben jedoch streng, und die grundlegenden Bedenken hinsichtlich der Privatsphäre und der Meinungsäußerung sind mit der engeren Definition nicht verschwunden.
Die Definition, was als „KI-Begleiter“ im Vergleich zu einem normalen Chatbot gilt, ist keine triviale Aufgabe. Die Grenze zwischen einem Kundenservice-Bot, einem pädagogischen KI-Lehrer und einem Gesprächspartner verschwimmt schnell. Diese Unklarheit birgt das Risiko für Entwickler, die sich möglicherweise zu sehr an die Vorschriften halten, um einer Haftung zu entgehen, wodurch der Zugriff auf Tools eingeschränkt wird, die nie das beabsichtigte Ziel des Gesetzentwurfs waren.
Das Problem des Ersten Verfassungszusatzes
Der Gesetzentwurf erhöht nicht nur die Hürde beim Zugang. Es entsteht ein kategorisches Verbot für eine ganze Altersgruppe. Kritiker argumentieren, dass dies weit über das hinausgeht, was die bestehenden rechtlichen Rahmenbedingungen zulassen, selbst bei Inhalten, die als jugendgefährdend gelten könnten.
Besonders lautstark äußerte sich die Electronic Frontier Foundation, die das Gesetz als eine die Privatsphäre verletzende Überwachungsmaßnahme bezeichnete. Ihr Argument ist einfach: Die obligatorische Identitätsprüfung betrifft nicht nur Minderjährige. Es betrifft jeden, denn jeder Nutzer muss sein Alter nachweisen, um auf den Dienst zugreifen zu können. Das bedeutet, dass Erwachsene sensible persönliche Daten weitergeben, nur um ein Gespräch mit der Software zu führen.
Die EFF warnt außerdem davor, dass der Gesetzentwurf den Zugang von Teenagern zu wichtigen digitalen Tools einschränken könnte und dass die abschreckende Wirkung über einzelne Benutzer hinausgeht. Entwickler und Unternehmen, die KI-Tools entwickeln, sehen sich mit einer Compliance-Landschaft konfrontiert, in der die sicherste rechtliche Strategie darin besteht, mehr und nicht weniger einzuschränken. Wenn die Strafe für eine fehlerhafte Altersüberprüfung schwerwiegend ist, besteht die rationale Geschäftsentscheidung darin, zu viel zu blockieren. Das bedeutet, dass legitime Bildungsnutzungen, Hilfsmittel zur Unterstützung der psychischen Gesundheit und kreative Anwendungen allesamt zu Kollateralschäden führen können.
Das Anliegen der Überwachungsinfrastruktur
Sobald Plattformen verpflichtet sind, echte Identitätsdokumente zu sammeln und zu überprüfen, verschwindet diese Dateninfrastruktur nicht, wenn die politische Debatte weitergeht. Es wird zu einem festen Bestandteil der Interaktion von Menschen mit KI-Systemen, einer Datenbank, die reale Identitäten mit digitalen Gesprächen verknüpft.
Die Formulierung des EFF ist unverblümt: Es handelt sich um eine Überwachungsarchitektur, die als Kindersicherheitsgesetz getarnt ist. Systeme, die die Identität überprüfen, erfassen notwendigerweise Identitäten, und bei den gesammelten Daten handelt es sich um Daten, die verletzt, vorgeladen oder für andere Zwecke verwendet werden können.
Altersüberprüfungsvorschriften schaffen Eintrittsbarrieren, die kleinere Unternehmen und Open-Source-Projekte unverhältnismäßig stark beeinträchtigen. Ein großes Technologieunternehmen kann die Kosten für den Aufbau einer Infrastruktur zur Identitätsprüfung tragen. Ein Zwei-Personen-Startup, das eine pädagogische KI aufbaut, kann das nicht.
Was das für die KI-Branche bedeutet
Die Einengung von „alle KI-Chatbots“ auf „KI-Begleiter“ zeigt, dass Lobbying und öffentliche Kommentarfristen den endgültigen Text prägen können. Aber die Kernarchitektur der Identitätsprüfung hat diese Überarbeitung unbeschadet überstanden.
Für Benutzer hängen die praktischen Auswirkungen vollständig davon ab, wie weit „KI-Begleiter“ in der regulatorischen Umsetzung definiert wird. Wenn die Definition eng bleibt, werden es die meisten Menschen nicht bemerken. Wenn es durch Regelsetzung oder gerichtliche Auslegung ausgeweitet wird, könnte die Verifizierungspflicht ein viel größeres Spektrum an KI-Interaktionen betreffen, als die Befürworter des Gesetzentwurfs derzeit vorschlagen.