Forscher erhalten Finanzmittel, um potenzielle Risiken in KI-Systemen zu identifizieren, obwohl es Berichte über aufgelöste interne Risikomanagementeinheiten gibt

In einem entscheidenden Schritt hat OpenAI ein Safety Fellowship-Programm vorgestellt, das externen Forschern, die mit der Untersuchung der potenziellen Risiken im Zusammenhang mit fortschrittlicher KI beauftragt sind, ein beträchtliches wöchentliches Stipendium von 3.850 US-Dollar bietet. Diese Ankündigung vom 6. April fiel mit einer aufschlussreichen Untersuchung des New Yorker zusammen, die ergab, dass OpenAI seine internen Sicherheitsteams abgebaut und den Begriff „sicher“ aus seinem beim IRS eingereichten Leitbild entfernt hatte. Das als Pilotprogramm konzipierte Stipendium zielt darauf ab, unabhängige Forschung im Bereich Sicherheit und Ausrichtung zu fördern und gleichzeitig die nächste Generation von Talenten in diesem wichtigen Bereich zu fördern.
Zu den großzügigen Anreizen des Programms gehören ein wöchentliches Stipendium von 3.850 US-Dollar, was über 200.000 US-Dollar pro Jahr entspricht, sowie Rechenressourcen im Wert von etwa 15.000 US-Dollar und Mentoring durch die erfahrenen Forscher von OpenAI. Die Stipendiaten haben die Flexibilität, vom Constellation-Arbeitsplatz in Berkeley aus oder aus der Ferne zu arbeiten. Die Bewerbungsfrist endet am 3. Mai. Insbesondere ist das Stipendium nicht auf KI-Spezialisten beschränkt, da OpenAI aktiv nach Kandidaten mit unterschiedlichem Hintergrund sucht, darunter Cybersicherheit, Sozialwissenschaften und Mensch-Computer-Interaktion sowie Informatik.
Der Zeitpunkt der Ankündigung ist besonders bemerkenswert, da sie kurz nach Ronan Farrows Untersuchungsbericht im New Yorker erfolgte, der den Untergang von drei aufeinanderfolgenden internen Sicherheitsteams bei OpenAI über einen Zeitraum von 22 Monaten dokumentierte. Das Superalignment-Team wurde im Mai 2024 als erstes aufgelöst, gefolgt vom AGI Readiness-Team im Oktober 2024 und schließlich dem Mission Alignment-Team im Februar 2026. Eine auffällige Bemerkung eines OpenAI-Vertreters als Antwort auf die Anfrage eines Journalisten zu Forschern für existenzielle Sicherheit unterstrich die offensichtliche Verschiebung der Prioritäten des Unternehmens: „Was meinen Sie mit existenzieller Sicherheit? Das ist so etwas wie eine Sache.“
Es ist unbedingt zu beachten, dass das Safety Fellowship nicht dazu gedacht ist, die aufgelöste interne Infrastruktur zu ersetzen. Stattdessen erhalten die Stipendiaten API-Credits und Rechenressourcen, haben jedoch keinen direkten Zugriff auf die Systeme von OpenAI, wodurch das Programm als eine Form der unabhängigen Forschungsfinanzierung positioniert wird. Die Forschungsagenda des Stipendiums umfasst sieben Schlüsselbereiche, darunter unter anderem Sicherheitsbewertung, Ethik, Robustheit und skalierbare Abhilfemaßnahmen. Bis zum Abschluss des Programms im Februar 2027 wird von jedem Stipendiaten erwartet, dass er eine substanzielle Leistung erbringt, beispielsweise eine Forschungsarbeit, einen Benchmark oder einen Datensatz. OpenAI hat betont, dass Forschungsfähigkeit, technisches Urteilsvermögen und Ausführungsfähigkeit Vorrang vor spezifischen akademischen Qualifikationen haben.
Die Auswirkungen dieser Entwicklung gehen weit über die KI-Branche hinaus, da sie erhebliche Auswirkungen auf den breiteren Markt hat. Das Vertrauen in die Sicherheitsverpflichtungen von KI-Frontierunternehmen dient als entscheidendes Marktsignal und beeinflusst die Kapitalallokation in der KI-Infrastruktur, den KI-Token sowie den DePIN- und KI-Agentenprotokollen, die an der Schnittstelle von Kryptowährung und künstlicher Intelligenz liegen. Da Investoren den Ausgabenverlauf und die operativen Prioritäten von OpenAI genau beobachten, wird der Erfolg dieses Stipendienprogramms genau beobachtet. Die Frage, ob externe Forscher, die ohne internen Zugriff arbeiten, einen sinnvollen Einfluss auf die Modellentwicklung haben können, wird beantwortet, wenn Anfang 2027 die Forschung der ersten Kohorte vorgestellt wird.