Cryptonews

GPT-5.5 von OpenAI entspricht Claude Mythos in Bezug auf Cyberangriffsfähigkeiten: AI Security Institute

Source
CryptoNewsTrend
Published
GPT-5.5 von OpenAI entspricht Claude Mythos in Bezug auf Cyberangriffsfähigkeiten: AI Security Institute

Kurz gesagt

GPT-5.5 kann hochentwickelte Cyberangriffe autonom ausführen, indem es eine 32-stufige Unternehmensnetzwerksimulation abschließt und ein 12-Stunden-Sicherheitsrätsel in nur 10 Minuten knackt.

Die offensive KI-Cyber-Fähigkeit verbessert sich bei allen Entwicklern rasch, wobei AISI warnt, dass weitere Fortschritte in schneller Folge eintreten könnten.

Forscher fanden einen Jailbreak, der die Sicherheitsleitplanken von GPT-5.5 vollständig umging und Alarm auslöste.

Eine britische Regierungsbehörde hat herausgefunden, dass das neueste Modell der künstlichen Intelligenz von OpenAI komplexe Cyberangriffe autonom durchführen kann – und dass es eine Reverse-Engineering-Herausforderung in etwas mehr als 10 Minuten gemeistert hat, für die ein menschlicher Sicherheitsexperte etwa 12 Stunden benötigte.

Das AI Security Institute (AISI), eine Forschungseinrichtung des britischen Ministeriums für Wissenschaft, Innovation und Technologie, veröffentlichte am Donnerstag Ergebnisse, aus denen hervorgeht, dass GPT-5.5 zu den stärksten Modellen gehört, die es hinsichtlich seiner offensiven Cyberfähigkeiten bewertet hat, und liegt damit in etwa auf einer Stufe mit dem vielgepriesenen Claude Mythos von Anthropic.

Der Bericht ergab, dass GPT-5.5 das zweite Modell ist, das den anspruchsvollsten Test von AISI – einen 32-stufigen simulierten Unternehmensnetzwerkangriff namens „The Last Ones“ – bestanden hat, und zwar autonom in zwei von zehn Versuchen. Das erste Modell, das diesen Meilenstein erreichte, war Claude Mythos Preview von Anthropic, das die Simulation in drei von zehn Versuchen abschloss.

Die Unternehmensnetzwerksimulation, die mit dem Cybersicherheitsunternehmen SpecterOps erstellt wurde, erfordert, dass ein Agent Aufklärung, Anmeldedatendiebstahl, laterale Bewegung über mehrere Active Directory-Gesamtstrukturen, einen Supply-Chain-Pivot durch eine CI/CD-Pipeline und letztendlich die Exfiltration einer geschützten internen Datenbank miteinander verkettet – Schritte, die nach Schätzungen von AISI einen menschlichen Experten etwa 20 Stunden dauern würden.

Das vielleicht auffälligste Ergebnis war ein teuflisch schwieriges Reverse-Engineering-Rätsel. GPT-5.5 löste die Herausforderung – die die Rekonstruktion des Befehlssatzes einer benutzerdefinierten virtuellen Maschine, das Schreiben eines Disassemblers von Grund auf und die Wiederherstellung eines kryptografischen Passworts durch das Lösen von Einschränkungen erforderte – in 10 Minuten und 22 Sekunden, wobei die API-Nutzung 1,73 US-Dollar kostete. Ein menschlicher Experte benötigte mit professionellen Werkzeugen etwa 12 Stunden.

Bei AISIs Reihe fortgeschrittener Cybersicherheitsaufgaben erreichte GPT-5.5 eine durchschnittliche Erfolgsquote von 71,4 % auf der schwierigsten „Experten“-Stufe und übertraf damit Mythos Preview mit 68,6 % und GPT-5.4 mit 52,4 % deutlich.

Die Ergebnisse haben deutliche Implikationen für den breiteren Verlauf der KI-Entwicklung. AISI kam zu dem Schluss, dass die Leistung von GPT-5.5 darauf hindeutet, dass eine schnelle Verbesserung der Cyber-Fähigkeiten eher Teil eines allgemeinen Trends als eines isolierten Durchbruchs sein könnte – und warnte davor, dass weitere Fortschritte in schneller Folge eintreten könnten, wenn offensive Cyber-Fähigkeiten als Nebenprodukt umfassenderer Verbesserungen bei Argumentation, Codierung und autonomer Aufgabenerledigung entstehen.

Der Bericht äußerte auch erhebliche Bedenken hinsichtlich der Sicherheitsgeländer des Modells. Die Forscher identifizierten einen universellen Jailbreak, der bei allen getesteten bösartigen Cyberabfragen schädliche Inhalte hervorrief, auch in Multi-Turn-Agent-Einstellungen. Die Entwicklung des Angriffs erforderte sechs Stunden fachmännisches Red-Teaming. Anschließend aktualisierte OpenAI seinen Schutzstapel, allerdings konnte AISI aufgrund eines Konfigurationsproblems nicht überprüfen, ob die endgültige Version wirksam war.

AISI wies darauf hin, dass seine Fähigkeitsbewertungen in einer kontrollierten Forschungsumgebung durchgeführt wurden und nicht unbedingt widerspiegeln, was für einen normalen Benutzer zugänglich ist, und wies darauf hin, dass öffentliche Einsätze zusätzliche Sicherheitsvorkehrungen und Zugangskontrollen beinhalten.

Der Bericht steht vor einem besorgniserregenden Hintergrund für die britische Cybersicherheit. Die jährliche Cyber ​​Security Breaches Survey der britischen Regierung, die ebenfalls am Donnerstag veröffentlicht wurde, ergab, dass 43 % der Unternehmen in den letzten 12 Monaten einen Cyberverstoß oder -angriff erlitten haben.

Als Reaktion darauf kündigte die Regierung eine neue Finanzierung in Höhe von 90 Millionen Pfund an, um die Cyber-Resilienz zu stärken, und erklärte, dass sie das Cyber-Sicherheits- und Resilienz-Gesetz zum Schutz wesentlicher Dienste vorantreibe. Beamte veröffentlichten außerdem Leitlinien, in denen sie Organisationen auffordern, sich auf einen möglichen Anstieg neu entdeckter Software-Schwachstellen vorzubereiten, da KI das Tempo beschleunigt, mit dem Sicherheitslücken gefunden und zu Waffen gemacht werden können.

GPT-5.5 von OpenAI entspricht Claude Mythos in Bezug auf Cyberangriffsfähigkeiten: AI Security Institute