Cryptonews

Die USA prüfen KI-Modelle von Microsoft, Google und xAI vor der Veröffentlichung

Source
CryptoNewsTrend
Published
Die USA prüfen KI-Modelle von Microsoft, Google und xAI vor der Veröffentlichung

Microsoft, Google und xAI haben vereinbart, der US-Regierung frühzeitig Zugang zu kommenden Modellen der künstlichen Intelligenz zu gewähren, sodass Beamte potenzielle nationale Sicherheitsrisiken prüfen können, bevor die Systeme der Öffentlichkeit zugänglich gemacht werden.

Die Vereinbarung wird es dem Center for AI Standards and Innovation (CAISI), das dem Handelsministerium der Vereinigten Staaten untersteht, ermöglichen, diese Modelle vorab zu testen.

Nach Angaben der Agentur umfasst der Prozess technische Bewertungen und Untersuchungen zur Leistung der Systeme sowie zu den möglicherweise damit verbundenen Risiken.

Jüngste Fortschritte in der KI, darunter Systeme wie Anthropic Mythos, haben in Washington und in allen Unternehmensbereichen zu größerer Besorgnis geführt. Beamte und Führungskräfte haben davor gewarnt, dass immer leistungsfähigere Modelle missbraucht werden könnten, insbesondere bei Cyberangriffen, bei denen die Automatisierung das Ausmaß und die Geschwindigkeit böswilliger Aktivitäten erhöhen könnte.

Anthropic wurde in der letzten Ankündigung nicht erwähnt. Das Unternehmen war mit dem US-Verteidigungsministerium uneins über den Umfang der Sicherheitsvorkehrungen, die beim Einsatz seiner Werkzeuge in militärischen Umgebungen getroffen werden, und verdeutlichte die anhaltenden Spannungen darüber, wie solche Systeme eingesetzt werden sollten.

„Unabhängige, strenge Messwissenschaft ist für das Verständnis von Grenz-KI und ihren Auswirkungen auf die nationale Sicherheit von wesentlicher Bedeutung“, sagte CAISI-Direktor Chris Fall und unterstrich die Notwendigkeit strukturierter Bewertungsrahmen mit fortschreitenden Modellfähigkeiten.

CAISI fungiert als zentrale Drehscheibe der Bundesregierung zum Testen fortschrittlicher KI-Systeme. Man habe bereits mehr als 40 Evaluierungen durchgeführt, darunter auch Modelle, die zum Testzeitpunkt noch nicht öffentlich verfügbar gewesen seien.

Um diese Bewertungen zu unterstützen, reichen Entwickler häufig modifizierte Versionen ihrer Modelle ein, bei denen bestimmte Sicherheitsmaßnahmen gelockert wurden. Dies ermöglicht es der Behörde, Worst-Case-Szenarien zu untersuchen und Schwachstellen zu identifizieren, die unter Standardnutzungsbedingungen möglicherweise nicht auftreten.

Der Schritt erfolgt kurz nachdem das Pentagon seine eigenen KI-Partnerschaften ausgeweitet hat. Das US-Verteidigungsministerium gab letzte Woche bekannt, dass es mit sieben Unternehmen Vereinbarungen über den Einsatz fortschrittlicher KI-Funktionen in geheimen Netzwerken unterzeichnet habe, um seinen Pool an Technologieanbietern zur Unterstützung militärischer Operationen zu diversifizieren.

Die USA prüfen KI-Modelle von Microsoft, Google und xAI vor der Veröffentlichung