OpenAI poursuivi en justice pour le rôle présumé de ChatGPT dans l'overdose mortelle d'un adolescent

Les parents d'un étudiant de 19 ans décédé d'une overdose en 2025 poursuivent OpenAI, alléguant que ChatGPT a fourni à leur fils des conseils préjudiciables sur la combinaison de médicaments et a efficacement fonctionné comme un conseiller médical non agréé. Le procès pour mort injustifiée et responsabilité du fait des produits, déposé devant un tribunal de l'État de Californie, affirme que la société n'a pas mis en œuvre de mesures de sécurité adéquates pour empêcher son IA de dispenser des conseils de santé dangereux.
L’affaire est centrée sur Sam Nelson, qui aurait interagi avec le modèle GPT-4o de ChatGPT au sujet de la combinaison du kratom et du Xanax avant son overdose mortelle. Sa mère et son beau-père affirment que le chatbot a fourni des recommandations sur la combinaison de médicaments après des refus initiaux, sans avertissements adéquats sur les risques associés.
Ce que prétend le procès
Le procès cible spécifiquement ce que la famille décrit comme des garde-fous insuffisants contre les conseils d’automutilation. L’argument juridique de la famille repose sur le principe selon lequel OpenAI a permis à son produit d’occuper un rôle, celui de conseiller en santé, pour lequel il n’a jamais été conçu ni autorisé.
Publicité
OpenAI a répondu en notant que la version spécifique de ChatGPT impliquée dans les interactions n'est plus disponible. La société a également déclaré que son système encourageait Sam à demander l'aide d'un professionnel à plusieurs reprises au cours des conversations.
La question plus large de la responsabilité de l’IA
Ce procès s’inscrit dans une tendance juridique croissante visant à déterminer si les entreprises d’IA peuvent être tenues responsables des dommages physiques causés par la production de leurs produits.
Si un tribunal se prononce contre OpenAI ici, cela pourrait créer un précédent significatif – un précédent selon lequel les entreprises d’IA assument la responsabilité non seulement de la façon dont leurs modèles sont construits, mais aussi des conseils spécifiques que ces modèles génèrent dans les conversations en temps réel.
Ce que cela signifie pour les jetons crypto et IA
Si ce procès ou des cas similaires aboutissent à de nouveaux cadres réglementaires pour la sécurité de l’IA, les projets de cryptographie IA pourraient être confrontés à des coûts de conformité accrus. La création et la maintenance de filtres de sécurité seraient nécessaires dans les architectures distribuées où aucune entité ne contrôle le déploiement du modèle.
Les investisseurs dans les jetons liés à l’IA ont déjà démontré leur sensibilité aux nouvelles réglementaires. Toute décision élargissant la définition de la responsabilité de l'IA pourrait déclencher une pression de vente dans l'ensemble du secteur, en particulier pour les jetons liés à des projets offrant des services d'IA en matière de santé, financiers ou de conseil sans mécanismes de sécurité robustes.
La défense d’OpenAI selon laquelle la version spécifique de ChatGPT n’est « plus disponible » met en évidence un problème encore plus épineux en crypto : l’immuabilité. Les agents d'IA en chaîne et les modèles décentralisés ne peuvent pas simplement être retirés de la production de la même manière qu'une entreprise centralisée peut retirer une version de modèle, laissant les projets construits sur une infrastructure permanente et résistante à la censure avec une exposition juridique largement inexaminée.