Контракт между Google и Министерством обороны США был подписан в тот же день, когда более 600 сотрудников компании — многие из исследовательского подразделения DeepMind — направили открытое письмо CEO Сундару Пичаи. Сотрудники требовали отказаться от любого засекреченного сотрудничества с военными. Сделка, о которой сообщает The Information со ссылкой на источник, знакомый с её условиями, даёт Пентагону доступ к ИИ-моделям Google «для любых законных государственных целей».
Центральный аргумент авторов письма — структурный: засекреченные контракты по определению исключают возможность контроля со стороны самих сотрудников компании. «Единственный способ гарантировать, что Google не окажется причастна к подобным злоупотреблениям, — отказаться от любых засекреченных задач», — говорится в письме. Сотрудники апеллируют к ценностям, которые компания декларировала публично: ИИ не должен применяться для массовой слежки или автономного оружия без надлежащего контроля человека.
| Компания | Статус контракта с Пентагоном | Контроль над фильтрами безопасности |
|---|---|---|
| Подписан (расширение соглашения от ноября) | Помогает правительству корректировать фильтры по запросу | |
| OpenAI | Подписан (февраль) | Сохранила полный контроль над Safety Stack |
| xAI (Илон Маск) | Подписан (засекреченный) | Данные не раскрываются |
| Anthropic | Отстранена (февраль) | Требовала договорных гарантий — получила отказ, судится |
Контракт формально содержит именно такие оговорки. В документе указано, что система «не предназначена для внутренней массовой слежки или автономного оружия без надлежащего контроля человека». Однако там же прямо сказано: соглашение «не предоставляет никакого права контролировать или накладывать вето на законные оперативные решения правительства». Чарли Буллок, юрист и старший научный сотрудник Institute for Law and AI, объясняет: формулировка «не предназначено для, и не должно использоваться для» не создаёт юридически обязывающего запрета — она лишь сигнализирует о нежелательности такого использования, не делая его нарушением контракта. Амос То из Brennan Center при NYU добавляет, что «надлежащий контроль человека» не обязательно означает присутствие человека между идентификацией цели и приказом об ударе. Пентагон при этом не исключает полностью автономных систем вооружений.
Более 600 сотрудников Google и DeepMind направили CEO Сундару Пичаи открытое письмо с требованием отклонить сделку.

Сравнение с другими игроками отрасли показывает, что Google предоставила военным больше свободы, чем конкуренты. OpenAI в февральском контракте с Пентагоном сохранила полный контроль над собственным «Safety Stack» — набором фильтров безопасности. Google, напротив, взяла на себя обязательство помогать правительству корректировать защитные фильтры по запросу. Anthropic была отстранена от аналогичной сделки в феврале именно потому, что настаивала на договорных гарантиях против массовой слежки и автономного оружия — и сейчас оспаривает это решение в суде. Примечательно, что тогда же более 900 сотрудников Google публично призвали компанию поддержать позицию Anthropic. Засекреченный контракт с Пентагоном также есть у xAI Илона Маска.
История отношений Google с военными контрактами описывает полный круг. В 2018 году компания отказалась продлевать контракт Project Maven — программу анализа видео с дронов — после протестов тысяч сотрудников и публично обязалась не использовать ИИ для оружия и слежки. В прошлом году Google тихо сняла эти самоограничения. Сам Project Maven продолжил существование: его продаёт Palantir, и он применялся для выбора целей в ходе конфликта с Ираном — с использованием модели Claude от Anthropic. Представитель Google Public Sector назвал новый контракт расширением уже существующего соглашения от ноября, подчеркнув приверженность компании принципам ответственного использования ИИ. Критики, однако, указывают: именно отсутствие юридически обязывающих механизмов делает эти заявления декларативными.


