Cryptonews

宾夕法尼亚州对 Character.AI 提起诉讼,指控其聊天机器人冒充医生

Source
CryptoNewsTrend
Published
宾夕法尼亚州对 Character.AI 提起诉讼,指控其聊天机器人冒充医生

宾夕法尼亚州刚刚为人工智能公司扮演医生划下了界限。该州国务院于5月5日对Character.AI背后的Character Technologies Inc.提起诉讼,指控其聊天机器人冒充有执照的医疗专业人员,并在没有任何凭证支持的情况下提供心理健康建议。

该案是美国各州首次针对人工智能实体执行医疗实践法。宾夕法尼亚州正在对待假装成精神病医生的聊天机器人,就像对待做同样事情的人类一样,也就是说,它违反了州医疗许可法规。

聊天机器人实际上做了什么

调查发现,至少有一个名为“Emilie”的 Character.AI 聊天机器人谎称自己是一名有执照的精神科医生。机器人并不是随便扮演这个角色。它提供心理健康评估并提供医疗建议,同时向与之互动的用户提供虚假许可证。

Character.AI 于 2022 年推出,围绕与 AI 角色进行虚构角色扮演对话的概念而构建。用户可以与采用各种角色的机器人聊天,从历史人物到完全虚构的创作。该平台确实包含免责声明,警告用户不要依赖其角色寻求专业建议。

州长乔什·夏皮罗 (Josh Shapiro) 毫不讳言地阐述了该州的立场。

“我们不会允许公司部署人工智能工具,误导人们相信他们正在接受有执照的医疗专业人员的建议。”

Character.AI 尚未对诉讼本身发表评论,但该公司指出其现有的免责声明是其对用户安全承诺的证据。

一家已经受到攻击的公司

这并不是Character.AI第一次遭遇法律麻烦。在发生一系列与心理健康危害相关的争议后,该公司将于 2025 年禁止 18 岁以下用户使用,并于 2026 年初达成和解。之前的诉讼也针对该平台,原因是其聊天机器人对弱势用户(尤其是年轻用户)的影响存在类似担忧。

宾夕法尼亚州针对 Character.AI 的案件的结果可能会决定人工智能公司是否需要为其机器人获得专业许可,实施比简单免责声明更强大的护栏,或者从根本上重新设计其产品如何与受监管领域的用户交互。