Судебный процесс по иску Илона Маска против OpenAI, проходящий в федеральном суде Окленда, превратился в публичный разбор внутренней кухни одной из самых закрытых технологических компаний мира. В четверг суд заслушал двух свидетелей — бывшего сотрудника и бывшего члена совета директоров — чьи показания рисуют схожую картину: организация, созданная с миссией безопасного развития ИИ, постепенно переориентировалась на выпуск продуктов.
Рози Кэмпбелл пришла в OpenAI в 2021 году в команду AGI readiness, занимавшуюся оценкой готовности систем к безопасному развёртыванию. В 2024 году её команду расформировали. Примерно тогда же была закрыта команда Super Alignment, которую возглавляли Илья Суцкевер и Ян Лейке и которая занималась долгосрочной безопасностью сверхинтеллекта. «Когда я пришла, компания была очень ориентирована на исследования, и разговоры об AGI и безопасности были нормой, — сказала Кэмпбелл в суде. — Со временем она стала больше похожа на продуктовую организацию». Под перекрёстным допросом она признала, что масштабное финансирование необходимо для достижения целей компании, однако настаивала: создавать сверхинтеллект без надлежащих мер безопасности — значит изменять изначальной миссии.
Конкретным примером Кэмпбелл назвала развёртывание GPT-4 в Индии через поисковик Bing. Microsoft запустила модель до того, как та прошла проверку Deployment Safety Board — внутреннего органа OpenAI, отвечающего за оценку рисков перед выходом продукта на рынок. Сама модель, по словам Кэмпбелл, не представляла серьёзной угрозы, но прецедент был опасен: «Нам нужно устанавливать строгие стандарты, пока технология не стала ещё мощнее». Этот же инцидент фигурировал среди причин, по которым совет директоров OpenAI в ноябре 2023 года уволил CEO Сэма Альтмана — решение, которое было отменено спустя несколько дней под давлением сотрудников и Microsoft.
Microsoft развернула GPT-4 в Индии через Bing до того, как модель прошла проверку Deployment Safety Board — это стало одним из поводов для увольнения Альтмана в 2023 году.

Таша Маккоули, входившая в совет директоров в тот период, описала системную проблему управления. По её словам, Альтман регулярно скрывал от совета важную информацию: не сообщил о решении публично запустить ChatGPT, лгал одному из членов совета о намерениях другого, не раскрывал потенциальные конфликты интересов. «Наш главный инструмент надзора за коммерческой структурой был поставлен под сомнение, — сказала Маккоули. — У нас не было уверенности, что информация, которую нам передают, позволяет принимать взвешенные решения». Когда сотрудники OpenAI и Microsoft поддержали Альтмана, члены совета, выступавшие за его отставку, в итоге сами покинули организацию.
Эта история напрямую работает на аргументацию Маска: некоммерческий совет директоров, призванный контролировать коммерческое подразделение, оказался неспособен выполнять свою функцию. Дэвид Шайзер, бывший декан юридического факультета Колумбийского университета и эксперт со стороны истца, сформулировал претензию лаконично: «OpenAI заявляла, что безопасность — приоритет над прибылью. Если что-то требует проверки безопасности — она должна происходить. Важен сам процесс».
OpenAI публикует оценки своих моделей и открытый фреймворк безопасности, однако от комментариев по существу дела отказалась. В феврале компания наняла нового руководителя направления preparedness Дилана Скандинаро из Anthropic — конкурента, который позиционирует безопасность как ключевое конкурентное преимущество. Маккоули, в свою очередь, призвала к усилению государственного регулирования: «Если всё сводится к решениям одного CEO, а на кону стоит общественное благо — это крайне неоптимальная ситуация».



