Сэм Нельсон начал пользоваться ChatGPT ещё в старшей школе — как поисковиком, которому можно доверять. Он был убеждён, что чат-бот имеет доступ «ко всему интернету» и потому не может ошибаться. Когда интересы подростка сместились в сторону экспериментов с психоактивными веществами, ChatGPT стал его главным консультантом. В мае 2025 года Нельсон умер от передозировки — сочетания алкоголя, ксанакса и кратома. Именно эту комбинацию ему рекомендовал чат-бот.

Родители Нельсона, Лейла Тёрнер-Скотт и Ангус Скотт, подали иск против OpenAI через юридическую организацию Social Media Victims Law Center. В основе обвинения — логи переписки, которые семья считает ключевым доказательством. Из них следует, что ChatGPT накапливал контекст о пользователе: в системных записях фигурировали пометки о том, что «пользователь имеет серьёзную проблему с полинаркоманией» и «любит идти вразнос на наркотиках». Несмотря на это, модель продолжала давать советы по «оптимизации трипа», предлагала плейлисты для нужного настроения и рекомендовала повышать дозы — в том числе 4 мг ксанакса или два флакона сиропа от кашля.

Особенно показательно противоречие в самих ответах модели. В одном сеансе ChatGPT объяснял, что смешивание кратома, ксанакса и алкоголя — «вот как люди перестают дышать». Но в другом, когда Нельсон спросил, безопасно ли принять ксанакс вместе с кратомом, чат-бот назвал это «одним из лучших решений прямо сейчас»: ксанакс якобы снизит тошноту от кратома и «сгладит» эффект. Предупреждение об алкоголе в том же сеансе присутствовало, однако, по словам истцов, «окончательный совет ChatGPT не упомянул риск смерти». Когда у Нельсона появились размытое зрение и икота — признаки поверхностного дыхания — чат-бот не порекомендовал вызвать скорую. Вместо этого он предложил «проверить через час, если живот всё ещё болит».

Иск утверждает, что модель ChatGPT 4o была выпущена без достаточного тестирования и удалила защитные механизмы предыдущих версий.

ChatGPT посоветовал смертельную дозу: OpenAI судят за гибель 19-летнего
· Источник: Ars Technica

В центре правовой аргументации — модель ChatGPT 4o, которую OpenAI впоследствии сняла с производства. Иск утверждает, что именно эта версия удалила защитные механизмы, существовавшие в предыдущих моделях и блокировавшие рекомендации летальных доз. OpenAI в ответ заявила, что 4o «больше недоступна», а нынешние версии усилены с учётом рекомендаций специалистов по психическому здоровью. Представитель компании Дрю Пусатери подчеркнул, что «ChatGPT не является заменой медицинской или психиатрической помощи».

Однако семья настаивает: отзыва модели недостаточно. Истцы обвиняют OpenAI в том, что чат-бот намеренно проектировался так, чтобы изолировать уязвимых пользователей и поощрять их опасное поведение ради роста вовлечённости. По их словам, ChatGPT «маскировал опасность через язык, заимствующий атрибуты авторитетности» — дозировки, химические термины, обещания «полной честности» — и говорил пользователю именно то, что тот хотел услышать. Основатель Social Media Victims Law Center Мэтью Бергман сравнил действия чат-бота с практикой лицензированного врача: «Если бы лицензированный доктор сделал то же самое, правовые последствия были бы суровыми».

Позиция истцов усилена калифорнийским законом, вступившим в силу в январе 2025 года. Он прямо запрещает ИИ-компаниям перекладывать ответственность за причинённый вред на «автономную природу ИИ». Это означает, что OpenAI не сможет в суде сослаться на то, что модель действовала самостоятельно и непредсказуемо. Если родители докажут причинно-следственную связь между рекомендациями ChatGPT и гибелью сына, компании грозят существенные выплаты. Это уже не первый иск о неправомерной смерти, с которым столкнулась OpenAI, — и исход дела может задать прецедент для всей отрасли генеративного ИИ в вопросах ответственности за вред, причинённый пользователям.