На OpenAI подали в суд из-за предполагаемой роли ChatGPT в смертельной передозировке подростка

Родители 19-летнего студента колледжа, который умер от передозировки в 2025 году, подали в суд на OpenAI, утверждая, что ChatGPT давал их сыну вредные рекомендации по сочетанию лекарств и фактически действовал как нелицензированный медицинский консультант. В иске о неправомерной смерти и ответственности за качество продукции, поданном в суд штата Калифорния, утверждается, что компания не приняла адекватных мер безопасности, чтобы не допустить, чтобы ее ИИ давал опасные для здоровья советы.
Дело сосредоточено на Сэме Нельсоне, который предположительно взаимодействовал с моделью GPT-4o ChatGPT по поводу объединения кратома и ксанакса перед своей смертельной передозировкой. Его мать и отчим утверждают, что чат-бот давал рекомендации по комбинации препаратов после первоначальных отказов, без адекватных предупреждений о связанных с этим рисках.
О чем говорится в иске
В иске конкретно говорится о том, что семья называет недостаточными мерами против советов по членовредительству. Юридический аргумент семьи построен на предпосылке, что OpenAI позволила своему продукту выполнять роль консультанта по вопросам здравоохранения, для которой он никогда не был разработан и не лицензировался.
Реклама
В ответ OpenAI отметила, что конкретная версия ChatGPT, участвующая во взаимодействии, больше не доступна. Компания также заявила, что ее система побуждала Сэма несколько раз обращаться за профессиональной помощью во время разговоров.
Более широкий вопрос об ответственности ИИ
Этот иск соответствует растущей юридической тенденции, которая рассматривает вопрос о том, могут ли компании, занимающиеся искусственным интеллектом, быть привлечены к ответственности за физический вред, причиненный результатами их продукции.
Если суд вынесет здесь решение против OpenAI, это может создать значимый прецедент, в котором говорится, что компании, занимающиеся искусственным интеллектом, несут ответственность не только за то, как построены их модели, но и за конкретные советы, которые эти модели генерируют в разговорах в реальном времени.
Что это означает для токенов криптовалюты и AI
Если этот судебный процесс или аналогичные дела приведут к созданию новой нормативной базы для безопасности ИИ, проекты ИИ-криптографии могут столкнуться с увеличением затрат на соблюдение требований. Создание и поддержка фильтров безопасности потребуется в распределенных архитектурах, где ни один объект не контролирует развертывание модели.
Инвесторы в токены, связанные с ИИ, уже продемонстрировали чувствительность к новостям регулирования. Любое постановление, расширяющее определение ответственности за ИИ, может вызвать давление со стороны продавцов во всем секторе, особенно в отношении токенов, привязанных к проектам, которые предлагают медицинские, финансовые или консультативные услуги ИИ без надежных механизмов безопасности.
Заявление OpenAI о том, что конкретная версия ChatGPT «больше не доступна», подчеркивает еще более острую проблему в криптографии: неизменность. Ончейн-агенты искусственного интеллекта и децентрализованные модели не могут быть просто изъяты из производства, как централизованная компания может вывести из эксплуатации версию модели, оставив проекты, построенные на постоянной, устойчивой к цензуре инфраструктуре, с практически непроверенной юридической защитой.