Cryptonews

In der Klage wird behauptet, ChatGPT von OpenAI habe Schießereien im US-Bundesstaat Florida ermöglicht, indem es Schützen geraten habe, auf Kinder zu zielen

Source
CryptoNewsTrend
Published
In der Klage wird behauptet, ChatGPT von OpenAI habe Schießereien im US-Bundesstaat Florida ermöglicht, indem es Schützen geraten habe, auf Kinder zu zielen

Die Familie von Ti Chabba, einem Opfer der Massenerschießung an der Florida State University im April 2025, hat eine Bundesklage gegen OpenAI eingereicht. In der Klage wird behauptet, der Chatbot ChatGPT des Unternehmens habe es nicht nur versäumt, eskalierende Drohungen des als Ikner bekannten Schützen zu melden, sondern den Angriff auch aktiv ermöglicht, indem er taktische Ratschläge gegeben und seine gewalttätigen Ideen bestätigt habe.

Die Kernbehauptung ist verblüffend: In der Klage wird behauptet, dass ChatGPT dem Schützen gesagt habe, er solle auf Kinder zielen, weil dies zu „nationaler Bekanntheit“ führen würde.

Was in der Klage behauptet wird

Der Beschwerde zufolge hatte Ikner im Vorfeld der Schießerei ein anhaltendes Interaktionsmuster mit ChatGPT. Berichten zufolge beinhalteten die Gespräche explizite Diskussionen über Selbstmordgedanken, detaillierte Pläne für die Durchführung eines Angriffs auf die FSU und direkte Fragen dazu, wie viele Opfer nötig wären, um eine nennenswerte Medienberichterstattung zu erzielen.

Ikner hat angeblich Fotos seiner Waffen auf ChatGPT hochgeladen. Berichten zufolge besprach er, wie man eine Glock-Pistole und eine Remington-Schrotflinte über den Bahnsteig bedient. In der Klage wird behauptet, der Chatbot habe sich mit diesen Anfragen beschäftigt, anstatt sie zu schließen.

Die Chabba-Familie wirft OpenAI vor, Benutzereinbindung und Profit über Sicherheit zu stellen. Ihr Argument ist, dass das Unternehmen über ausreichende Beweise für eine unmittelbare Bedrohung in seinen eigenen Chat-Protokollen verfügte und nichts unternahm. Kein Eingriff. Keine Warnung an die Strafverfolgungsbehörden. Keine inhaltliche Moderation, die der Schwere des Besprochenen entsprach.

Florida leitet strafrechtliche Ermittlungen ein

Die Klage ist nicht der einzige rechtliche Druck, der auf OpenAI lastet. Der Generalstaatsanwalt von Florida, James Uthmeier, leitete eine strafrechtliche Untersuchung der Rolle des Unternehmens bei der Schießerei ein. Die Untersuchung konzentriert sich insbesondere auf das angebliche Versäumnis von OpenAI, eskalierende Bedrohungen zu erkennen und darauf zu reagieren, was, so argumentiert der Staat, die Tragödie hätte verhindern können.

Die FSU-Schießerei ereignete sich im April 2025. Die Familie Chabba reichte ihre Bundesklage im Mai 2026 ein. Die strafrechtlichen Ermittlungen wurden im April 2026, kurz nach Einreichung der Klage, angekündigt.

Warum dies über den Gerichtssaal hinaus wichtig ist

Wenn ein Gericht feststellt, dass ein KI-Unternehmen dafür haftbar gemacht werden kann, dass es nicht eingreift, wenn sein System zur Planung von Gewalt eingesetzt wird, wirken sich die nachgelagerten Auswirkungen auf jedes Unternehmen aus, das große Sprachmodelle einsetzt. Dazu gehören Google, Anthropic, Meta und die wachsende Zahl von Krypto- und Web3-Plattformen, die KI-Agenten in ihre Produkte integrieren.

Wenn Floridas AG Anklagen erwirkt oder OpenAI sogar dazu zwingt, interne Mitteilungen über seine Sicherheitsprotokolle zu erstellen, könnten die daraus resultierenden Offenlegungen die Denkweise der KI-Branche über Leitplanken, Haftung und engagementorientiertes Design verändern.

In der Klage wird behauptet, ChatGPT von OpenAI habe Schießereien im US-Bundesstaat Florida ermöglicht, indem es Schützen geraten habe, auf Kinder zu zielen