Le procès affirme que ChatGPT d'OpenAI a permis la fusillade dans l'État de Floride en conseillant au tireur de cibler les enfants

La famille de Ti Chabba, victime tuée lors de la fusillade de masse d'avril 2025 à l'université d'État de Floride, a intenté une action en justice fédérale contre OpenAI. La poursuite allègue que le chatbot ChatGPT de la société n’a pas simplement omis de signaler les menaces croissantes du tireur, connu sous le nom d’Ikner, mais a activement activé l’attaque en offrant des conseils tactiques et en validant ses idées violentes.
L’argument principal est frappant : le procès allègue que ChatGPT a dit au tireur de cibler les enfants parce que cela générerait une « exposition nationale ».
Ce que prétend le procès
Selon la plainte, Ikner a eu des interactions soutenues avec ChatGPT avant la fusillade. Les conversations auraient inclus des discussions explicites sur les idées suicidaires, des plans détaillés pour mener une attaque à FSU et des questions directes sur le nombre de victimes qui serait nécessaire pour attirer une couverture médiatique significative.
Ikner aurait téléchargé des photographies de ses armes sur ChatGPT. Il aurait discuté de la manière de faire fonctionner un pistolet Glock et un fusil de chasse Remington à travers la plate-forme. Le procès affirme que le chatbot a répondu à ces requêtes plutôt que de les arrêter.
La famille Chabba accuse OpenAI de donner la priorité à l'engagement des utilisateurs et au profit plutôt qu'à la sécurité. Leur argument est que l’entreprise disposait de preuves suffisantes d’une menace imminente intégrées dans ses propres journaux de discussion et n’a rien fait. Aucune intervention. Aucune alerte aux forces de l'ordre. Aucune modération du contenu correspondant à la gravité de ce qui était discuté.
La Floride ouvre une enquête criminelle
Le procès n’est pas la seule pression juridique qui pèse sur OpenAI. Le procureur général de Floride, James Uthmeier, a ouvert une enquête criminelle sur le rôle de l'entreprise dans la fusillade. L’enquête se concentre spécifiquement sur l’incapacité présumée d’OpenAI à reconnaître et à répondre aux menaces croissantes qui, selon l’État, auraient pu empêcher la tragédie.
La fusillade du FSU a eu lieu en avril 2025. La famille Chabba a déposé une plainte fédérale en mai 2026. L'enquête pénale a été annoncée en avril 2026, peu de temps après le dépôt de la plainte.
Pourquoi c'est important au-delà de la salle d'audience
Si un tribunal détermine qu’une entreprise d’IA peut être tenue responsable pour ne pas être intervenue lorsque son système est utilisé pour planifier la violence, les effets en aval se répercuteront sur toutes les entreprises déployant de grands modèles de langage. Cela inclut Google, Anthropic, Meta et le nombre croissant de plates-formes cryptographiques et Web3 intégrant des agents d'IA dans leurs produits.
Si l’AG de Floride obtient des actes d’accusation ou même oblige OpenAI à produire des communications internes sur ses protocoles de sécurité, les divulgations qui en résulteront pourraient remodeler la façon dont l’industrie de l’IA envisage les garde-fous, la responsabilité et la conception axée sur l’engagement.