Americans for Responsible Innovation fordert die USA nachdrücklich auf, KI-Sicherheitsüberprüfungen für Regierungsaufträge vorzuschreiben

Americans for Responsible Innovation, eine gemeinnützige Organisation mit Schwerpunkt auf KI-Politik, drängt die Trump-Regierung dazu, obligatorische Sicherheitsüberprüfungen für jedes KI-Labor zu fordern, das an Aufträgen der US-Regierung teilnehmen möchte. Die Empfehlung vom 11. Mai 2026 richtet sich an Entwickler, die sogenannte „Frontier“-Modelle entwickeln, die leistungsstärksten und potenziell gefährlichsten KI-Systeme, die es gibt.
Der Vorschlag von ARI konzentriert sich auf strukturierte Sicherheitsbewertungen, die als Gating-Mechanismus für die Bundesbeschaffung dienen würden. Ein KI-Labor, das Grenzmodelle entwickelt, müsste nachweisen, dass seine Systeme auf Missbrauchspotenzial überprüft wurden, bevor es sich für einen Regierungsauftrag qualifiziert.
Am 6. April 2026 warnte die Gruppe die General Services Administration vor den Risiken, die mit den vagen Klauseln zur „jeglichen rechtmäßigen Nutzung“ in den bestehenden KI-Beschaffungsvorschriften verbunden sind. Diese Klauseln, argumentierte ARI, geben KI-Systemen im Wesentlichen einen Blankoscheck für den Betrieb ohne sinnvolle Leitplanken, sobald sie sich in Regierungssystemen befinden.
ARI weist auf eine 4,2-fache jährliche Wachstumsrate bei der KI-Berechnung seit 2010 hin, eine Entwicklung, die darauf hindeutet, dass die Fähigkeiten von Grenzmodellen weitaus schneller wachsen als die Fähigkeit der Regierung, sie zu bewerten. Mittlerweile trauen 82 % der Öffentlichkeit den Tech-Führungskräften nicht zu, die KI selbst zu regulieren.
Am 24. März 2026 kündigte die CFTC eine Task Force an, die sich speziell mit der Regulierung der Rolle von KI in digitalen Vermögenswerten befassen soll. ARI ist relativ neu in der KI-Regulierungsszene und die Gruppe hat in ihren Empfehlungen keine expliziten Verbindungen zu Kryptowährungen oder digitalen Vermögenswerten hergestellt.
Wenn obligatorische Sicherheitsüberprüfungen Realität werden, werden die KI-Firmen, die erhebliche Einnahmen aus Regierungsaufträgen erzielen, die unmittelbarsten Auswirkungen haben. Der Compliance-Aufwand würde steigen. Die Fristen für die Vertragsabsicherung würden sich verlängern. Kleinere KI-Startups, denen oft die Ressourcen für umfassende Sicherheitsprüfungen fehlen, könnten vom Bundesmarkt völlig ausgeschlossen sein.
Die Task Force der CFTC für KI und digitale Vermögenswerte legt nahe, dass die Regulierungsbehörden bereits darüber nachdenken, wie sich die KI-Governance mit Blockchain-basierten Systemen überschneidet. Investoren in KI-bezogene Token und Projekte sollten darauf achten, wie dieser Vorschlag von der Regierung und dem Kongress aufgenommen wird, da Sicherheitsvorschriften, die an politischer Dynamik gewinnen, erfordern würden, dass der Markt höhere Compliance-Kosten im gesamten KI-Sektor einpreist, einschließlich Unternehmen, die an der Schnittstelle von KI und Krypto bauen.