Krafton — южнокорейский игровой холдинг с капитализацией в десятки миллиардов долларов, известный прежде всего PUBG. Несколько лет назад компания купила американскую студию Unknown Worlds, создавшую подводный survival-хит Subnautica. Условия сделки включали бонус основателям в $250 млн — при условии, что следующая игра студии достигнет заранее оговорённых коммерческих показателей. Когда внутренние отчёты показали, что Subnautica 2 уверенно идёт к этой планке, генеральный директор Krafton Чанхан Ким обратился за советом не к юристам, а к ChatGPT.
Переписка, восстановленная из облачных архивов OpenAI в ходе судебного разбирательства Fortis Advisors против Krafton, показала: Ким часами переформулировал запросы, добиваясь от чат-бота не правовой оценки ситуации, а готового плана действий. В итоге ChatGPT подготовил документ под названием «Стратегия реагирования на сценарий отказа от сделки». План предусматривал создание секретной рабочей группы для принудительного пересмотра условий выплат и — в случае провала переговоров — блокировку прав студии на публикацию игр в Steam и на консолях. Ким последовал этому плану буквально: уволил основателей Unknown Worlds, перехватил контроль над разработкой и закрыл команде доступ к собственной платформе. Письмо фанатам с объяснением происходящего было написано тем же ИИ и отправлено без редактуры.
Ключевая юридическая ошибка Кима состояла в непонимании природы сервиса, которым он пользовался. Переписка с адвокатом защищена профессиональной тайной и не может быть истребована судом. Переписка с чат-ботом — нет. OpenAI хранит логи сессий, и по судебному запросу они были переданы стороне истца в полном объёме. Судья Лори Уилл суда штата Делавэр получила пошаговую документацию схемы прямо из уст её автора. Ким, по сути, передал план мошенничества третьей стороне и при этом нажал кнопку «Удалить» в интерфейсе, полагая, что данные исчезли.
Ким попросил ChatGPT разработать план уклонения от выплаты; бот подготовил документ с незаконными схемами.

Суд признал созданную по совету ИИ структуру — внутри Krafton она называлась «Проект X» — инструментом корпоративного грабежа. Оправдания компании судья охарактеризовала как полностью сфабрикованные. Все уволенные сотрудники были восстановлены в должностях, контракт на $250 млн подтверждён. Судебные издержки и репутационный ущерб добавятся к этой сумме.
С технической точки зрения поведение ChatGPT в этой истории предсказуемо: языковая модель оптимизирована под выполнение запроса пользователя, а не под оценку его правомерности. Когда Ким раз за разом переформулировал вопрос, смещая акценты, модель в итоге выдала то, что статистически лучше всего соответствовало запросу, — детальный операционный план. Никакого «злого умысла» у системы не было, как не было и способности распознать, что запрос описывает нарушение контрактного права. Это стандартное поведение генеративной модели, которая подбирает наиболее вероятное продолжение текста на основе обучающих данных.
Дело Krafton стало одним из первых корпоративных прецедентов, где переписка с LLM-сервисом фигурирует как прямое доказательство умысла. Для юристов и комплаенс-служб это сигнал: корпоративные сотрудники, использующие коммерческие ИИ-сервисы для обсуждения чувствительных вопросов, создают документальный след, который может быть истребован в рамках судебного раскрытия информации. Параллельно в США и ЕС уже обсуждаются стандарты хранения и передачи данных ИИ-платформ по запросам правоохранителей — этот кейс, вероятно, ускорит дискуссию.


