Генеральный прокурор Флориды Джеймс Uthmeier объявил о расследовании возможной роли ChatGPT в подготовке массового расстрела. По его словам, если выяснится, что руководство OpenAI знало об угрозе и сознательно поставило коммерческие интересы выше общественной безопасности, виновные должны понести ответственность. «Я сторонник ограниченного государственного вмешательства в бизнес, — сказал Uthmeier. — Но когда речь идёт о реальном вреде людям, это тот самый случай».
OpenAI, по словам представителя компании Лиз Уотерс, сотрудничает со следствием с самого начала: сервис самостоятельно идентифицировал аккаунт ChatGPT, предположительно связанный с подозреваемым, и проактивно передал информацию правоохранителям. Позиция компании сводится к следующему: чат-бот не подстрекал к насилию и не давал инструкций по совершению преступления, а лишь отвечал на вопросы, используя данные из открытых источников. «ChatGPT предоставлял фактические ответы на вопросы, информация по которым широко доступна в интернете, и не поощрял незаконную или опасную деятельность», — заявила Уотерс.
Это разграничение принципиально для компании. В ряде других судебных дел ChatGPT обвиняли в том, что он активно подталкивал пользователей к суициду или насилию. В нынешнем случае OpenAI настаивает на принципиально иной ситуации: бот отвечал на запросы, не инициируя опасных действий. Тем не менее Uthmeier сообщил, что OpenAI признала необходимость изменений и пообещала принять дополнительные меры, чтобы ограничить возможность использования сервиса для планирования массовых убийств. «Мы не можем допустить, чтобы ИИ-боты давали советы о том, как убивать людей», — подчеркнул он.
Компания утверждает, что ChatGPT не призывал к насилию, а отвечал на вопросы фактической информацией из открытых источников.

Уотерс от комментариев о конкретных изменениях в ChatGPT после инцидента воздержалась, сделав акцент на том, что подобное использование сервиса нетипично. По её словам, ChatGPT — универсальный инструмент, которым ежедневно пользуются сотни миллионов человек в легитимных целях, а компания постоянно совершенствует механизмы выявления опасных намерений и предотвращения злоупотреблений.
Случай обнажает системную проблему, с которой сталкивается вся отрасль: крупные языковые модели обучены на колоссальных массивах публичных данных и способны агрегировать информацию, которая по отдельности безобидна, но в совокупности может служить инструкцией для преступления. Граница между «ответом на вопрос» и «пособничеством» остаётся юридически и технически размытой — и именно этот вопрос предстоит разрешить флоридскому расследованию.


