OpenAI verklagte ChatGPT wegen angeblicher Rolle bei der tödlichen Überdosis eines Teenagers

Die Eltern eines 19-jährigen College-Studenten, der im Jahr 2025 an einer Überdosis starb, verklagen OpenAI mit der Begründung, ChatGPT habe ihrem Sohn schädliche Ratschläge zum Kombinieren von Medikamenten gegeben und effektiv als nicht lizenzierter medizinischer Berater fungiert. In der Klage wegen unrechtmäßiger Tötung und Produkthaftung, die vor einem kalifornischen Staatsgericht eingereicht wurde, wird behauptet, das Unternehmen habe es versäumt, angemessene Sicherheitsmaßnahmen umzusetzen, um zu verhindern, dass seine KI gefährliche Gesundheitsratschläge erteilt.
Der Fall dreht sich um Sam Nelson, der vor seiner tödlichen Überdosis angeblich mit dem GPT-4o-Modell von ChatGPT über die Kombination von Kratom und Xanax interagiert hat. Seine Mutter und sein Stiefvater behaupten, der Chatbot habe nach anfänglicher Ablehnung Empfehlungen zur Medikamentenkombination gegeben, ohne ausreichend vor den damit verbundenen Risiken zu warnen.
Was in der Klage behauptet wird
Die Klage zielt insbesondere auf das ab, was die Familie als unzureichende Schutzmaßnahmen gegen Selbstverletzungsratschläge bezeichnet. Die rechtliche Argumentation der Familie basiert auf der Prämisse, dass OpenAI seinem Produkt erlaubt hat, die Rolle eines Gesundheitsberaters einzunehmen, für die es nie konzipiert oder lizenziert wurde.
Werbung
OpenAI hat darauf reagiert und darauf hingewiesen, dass die spezifische Version von ChatGPT, die an den Interaktionen beteiligt war, nicht mehr verfügbar ist. Das Unternehmen gab außerdem an, dass sein System Sam während der Gespräche mehrmals dazu ermutigt habe, professionelle Hilfe in Anspruch zu nehmen.
Die umfassendere Frage der KI-Haftung
Diese Klage steht im Zusammenhang mit einem wachsenden Rechtstrend, der untersucht, ob KI-Unternehmen für physische Schäden, die durch die Ergebnisse ihrer Produkte verursacht werden, zur Verantwortung gezogen werden können.
Wenn ein Gericht hier gegen OpenAI entscheidet, könnte es einen bedeutenden Präzedenzfall schaffen – einen, der besagt, dass KI-Unternehmen nicht nur die Verantwortung für die Art und Weise tragen, wie ihre Modelle erstellt werden, sondern auch für die spezifischen Ratschläge, die diese Modelle in Echtzeitgesprächen generieren.
Was das für Krypto- und KI-Token bedeutet
Wenn diese Klage oder ähnliche Fälle zu neuen regulatorischen Rahmenbedingungen für die KI-Sicherheit führen, könnten KI-Krypto-Projekte mit höheren Compliance-Kosten konfrontiert werden. Der Aufbau und die Wartung von Sicherheitsfiltern wären in verteilten Architekturen erforderlich, in denen keine einzelne Entität die Bereitstellung des Modells kontrolliert.
Investoren in KI-bezogene Token haben bereits gezeigt, dass sie sensibel auf regulatorische Neuigkeiten reagieren. Jede Entscheidung, die die Definition der KI-Haftung erweitert, könnte einen Verkaufsdruck in der gesamten Branche auslösen, insbesondere bei Token, die an Projekte gebunden sind, die Gesundheits-, Finanz- oder Beratungsdienste für KI ohne robuste Sicherheitsmechanismen anbieten.
Die Verteidigung von OpenAI, dass die spezifische ChatGPT-Version „nicht mehr verfügbar“ sei, verdeutlicht ein Problem, das bei Krypto noch heikler ist: Unveränderlichkeit. On-Chain-KI-Agenten und dezentrale Modelle können nicht einfach aus der Produktion genommen werden, so wie ein zentralisiertes Unternehmen eine Modellversion aus dem Verkehr ziehen kann, sodass Projekte, die auf einer permanenten, zensurresistenten Infrastruktur basieren, einer weitgehend ungeprüften rechtlichen Gefährdung unterliegen.