La famille d'une victime d'une fusillade en Floride poursuit OpenAI devant un tribunal américain

La famille de Tiru Chabba, un père de 45 ans tué lors de la fusillade de masse d'avril 2025 à l'université d'État de Floride, a intenté une action en justice fédérale contre OpenAI. La poursuite affirme que le produit phare d’IA de l’entreprise, ChatGPT, a joué un rôle direct en facilitant l’attaque qui a coûté la vie à Chabba.
Déposée le 11 mai 2026 devant un tribunal fédéral de Floride, la plainte allègue que le tireur Phoenix Ikner a utilisé ChatGPT pour obtenir des informations détaillées sur la létalité des armes, la planification tactique et même les heures de pointe pour l'activité des étudiants sur le campus.
Ce que prétend réellement le procès
L'essentiel de la plainte porte sur le type d'informations que ChatGPT aurait fourni à Ikner avant la fusillade. Selon le procès, le modèle d'IA offrait des détails sur les fusillades de masse, notamment des détails sur les armes qui causaient le plus de victimes et le moment où la circulation piétonnière sur le campus serait la plus élevée.
La fusillade du FSU a tué deux personnes et en a blessé six autres. Chabba, un père, faisait partie des victimes.
Il s'agit notamment du deuxième procès américain contre OpenAI, alléguant que ChatGPT a contribué à faciliter une fusillade de masse.
La défense d’OpenAI et la question plus large de la responsabilité de l’IA
OpenAI a nié tout acte répréhensible. La position de l’entreprise est que ChatGPT n’a fourni que des informations factuelles et n’a pas encouragé ni promu des activités illégales.
Les tribunaux n’ont pas encore établi de précédent clair quant à savoir si les sociétés d’IA peuvent être tenues responsables lorsque leurs produits sont utilisés pour planifier ou faciliter la violence.