OpenAI 就 ChatGPT 涉嫌在青少年服药过量致死事件中所扮演的角色提起诉讼

一名 2025 年因服药过量死亡的 19 岁大学生的父母正在起诉 OpenAI,指控 ChatGPT 为他们的儿子提供了组合药物的有害指导,并实际上充当了未经许可的医疗顾问。在加利福尼亚州法院提起的过失死亡和产品责任诉讼声称,该公司未能采取足够的安全措施来防止其人工智能提供危险的健康建议。
该案件以 Sam Nelson 为中心,据称他在服药过量致死之前与 ChatGPT 的 GPT-4o 模型进行了互动,将卡痛叶和 Xanax 结合起来。他的母亲和继父声称,聊天机器人在最初拒绝后提供了有关药物组合的建议,但没有对相关风险进行充分警告。
诉讼指控内容
该诉讼特别针对家人所说的针对自残建议的防范措施不足的情况。该家族的法律论点是建立在 OpenAI 允许其产品占据健康顾问角色的前提之上的,而该产品从未被设计或获得许可来填补这一角色。
广告
OpenAI 回应称,交互中涉及的特定版本的 ChatGPT 已不再可用。该公司还表示,其系统鼓励 Sam 在对话过程中多次寻求专业帮助。
更广泛的人工智能责任问题
这起诉讼符合日益增长的法律趋势,审查人工智能公司是否可以对其产品输出造成的人身伤害负责。
如果法院在这里做出不利于 OpenAI 的裁决,它可能会树立一个有意义的先例——人工智能公司不仅要对其模型的构建方式负责,还要对这些模型在实时对话中生成的具体建议承担责任。
这对于加密货币和人工智能代币意味着什么
如果这场诉讼或类似案件导致人工智能安全的新监管框架,人工智能加密项目可能会面临更高的合规成本。跨分布式架构需要构建和维护安全过滤器,其中没有单个实体控制模型的部署。
人工智能相关代币的投资者已经表现出了对监管新闻的敏感性。任何扩大人工智能责任定义的裁决都可能引发整个行业的抛售压力,特别是对于与提供健康、金融或咨询人工智能服务但没有强大安全机制的项目相关的代币。
OpenAI 辩称特定的 ChatGPT 版本“不再可用”,凸显了加密货币领域更加棘手的问题:不变性。链上人工智能代理和去中心化模型不能像中心化公司淘汰模型版本那样简单地从生产中撤出,从而使建立在永久、抗审查基础设施上的项目面临基本上未经审查的法律风险。