Контракт между Google и Министерством обороны США был подписан в тот же день, когда более 600 сотрудников компании — многие из исследовательского подразделения DeepMind — направили открытое письмо CEO Сундару Пичаи. Сотрудники требовали отказаться от любого засекреченного сотрудничества с военными. Сделка, о которой сообщает The Information со ссылкой на источник, знакомый с её условиями, даёт Пентагону доступ к ИИ-моделям Google «для любых законных государственных целей».

Центральный аргумент авторов письма — структурный: засекреченные контракты по определению исключают возможность контроля со стороны самих сотрудников компании. «Единственный способ гарантировать, что Google не окажется причастна к подобным злоупотреблениям, — отказаться от любых засекреченных задач», — говорится в письме. Сотрудники апеллируют к ценностям, которые компания декларировала публично: ИИ не должен применяться для массовой слежки или автономного оружия без надлежащего контроля человека.

КомпанияСтатус контракта с ПентагономКонтроль над фильтрами безопасности
GoogleПодписан (расширение соглашения от ноября)Помогает правительству корректировать фильтры по запросу
OpenAIПодписан (февраль)Сохранила полный контроль над Safety Stack
xAI (Илон Маск)Подписан (засекреченный)Данные не раскрываются
AnthropicОтстранена (февраль)Требовала договорных гарантий — получила отказ, судится

Контракт формально содержит именно такие оговорки. В документе указано, что система «не предназначена для внутренней массовой слежки или автономного оружия без надлежащего контроля человека». Однако там же прямо сказано: соглашение «не предоставляет никакого права контролировать или накладывать вето на законные оперативные решения правительства». Чарли Буллок, юрист и старший научный сотрудник Institute for Law and AI, объясняет: формулировка «не предназначено для, и не должно использоваться для» не создаёт юридически обязывающего запрета — она лишь сигнализирует о нежелательности такого использования, не делая его нарушением контракта. Амос То из Brennan Center при NYU добавляет, что «надлежащий контроль человека» не обязательно означает присутствие человека между идентификацией цели и приказом об ударе. Пентагон при этом не исключает полностью автономных систем вооружений.

Более 600 сотрудников Google и DeepMind направили CEO Сундару Пичаи открытое письмо с требованием отклонить сделку.

Image description
Image description · Источник: The Decoder

Сравнение с другими игроками отрасли показывает, что Google предоставила военным больше свободы, чем конкуренты. OpenAI в февральском контракте с Пентагоном сохранила полный контроль над собственным «Safety Stack» — набором фильтров безопасности. Google, напротив, взяла на себя обязательство помогать правительству корректировать защитные фильтры по запросу. Anthropic была отстранена от аналогичной сделки в феврале именно потому, что настаивала на договорных гарантиях против массовой слежки и автономного оружия — и сейчас оспаривает это решение в суде. Примечательно, что тогда же более 900 сотрудников Google публично призвали компанию поддержать позицию Anthropic. Засекреченный контракт с Пентагоном также есть у xAI Илона Маска.

История отношений Google с военными контрактами описывает полный круг. В 2018 году компания отказалась продлевать контракт Project Maven — программу анализа видео с дронов — после протестов тысяч сотрудников и публично обязалась не использовать ИИ для оружия и слежки. В прошлом году Google тихо сняла эти самоограничения. Сам Project Maven продолжил существование: его продаёт Palantir, и он применялся для выбора целей в ходе конфликта с Ираном — с использованием модели Claude от Anthropic. Представитель Google Public Sector назвал новый контракт расширением уже существующего соглашения от ноября, подчеркнув приверженность компании принципам ответственного использования ИИ. Критики, однако, указывают: именно отсутствие юридически обязывающих механизмов делает эти заявления декларативными.