Министерство обороны США в 2026 году оформило соглашения сразу с восемью технологическими компаниями — SpaceX, OpenAI, Google, Nvidia, Microsoft, Amazon, Oracle и Reflection — о внедрении их ИИ-моделей в закрытую военную инфраструктуру. Речь идёт не об облачных сервисах с публичным доступом, а о развёртывании моделей непосредственно внутри сетей уровней Impact Level 6 и 7, предназначенных для работы с секретными и совершенно секретными данными.
Impact Level — это американская классификация облачных сред по степени защищённости. Уровни 6 и 7 предполагают работу с засекреченной информацией национального значения и данными особой важности. Доступ к таким контурам требует специальных допусков и технической сертификации, поэтому включение в список одобренных поставщиков — серьёзный коммерческий и репутационный актив для любой ИТ-компании.
| Компания | Статус в 2026 году | Примечание |
|---|---|---|
| SpaceX | Новый партнёр Пентагона | Включена в список одобренных поставщиков |
| OpenAI | Новый партнёр Пентагона | Соглашение на поставку моделей для закрытых сетей |
| Новый партнёр Пентагона | Более 600 сотрудников выступили против контракта | |
| Nvidia | Новый партнёр Пентагона | Включена в список одобренных поставщиков |
| Microsoft | Новый партнёр Пентагона | Включена в список одобренных поставщиков |
| Amazon | Новый партнёр Пентагона | Включена в список одобренных поставщиков |
| Oracle | Новый партнёр Пентагона | Включена в список одобренных поставщиков |
| Reflection | Новый партнёр Пентагона | Включена в список одобренных поставщиков |
| Anthropic | Фактически исключена | Контракт ~$200 млн (2025), вывод моделей до конца 2026 г., судебный спор |
Катализатором диверсификации поставщиков стал конфликт с Anthropic. Летом 2025 года Пентагон заключил с ней контракт стоимостью около $200 млн на интеграцию моделей Claude в оборонные системы. Однако вскоре возникли принципиальные разногласия: Anthropic запрещает использовать свои модели для внутренней слежки — что ограничивает возможности ФБР и Иммиграционной и таможенной службы — а также для управления автономным оружием. Пентагон внёс компанию в чёрный список, назвав её угрозой национальной безопасности; в мае 2026 года это решение оспаривается в суде. Модели Claude планируют вывести из военных контуров до конца года, хотя, по данным Reuters, часть сотрудников и подрядчиков ведомства сопротивляется переходу, считая Claude сильнее имеющихся альтернатив.
Anthropic, ранее подписавшая контракт с армией США на $200 млн, фактически исключена: её модели Claude планируют убрать из военных систем до конца 2026 года.
Из новых участников наибольший резонанс вызвало подключение Google. Соглашение разрешает использование её ИИ-моделей для секретных задач и обязывает компанию содействовать изменению настроек безопасности и фильтров по запросу властей. При этом Google не получает права контролировать или блокировать оперативные решения правительства. 27 апреля 2026 года более 600 сотрудников компании подписали открытое письмо генеральному директору Сундару Пичаи, призвав отказаться от военных контрактов. Авторы письма апеллировали к этической ответственности разработчиков передовых технологий.
Это не первый подобный конфликт внутри Google. В 2018 году тысячи сотрудников выступили против участия компании в проекте Project Maven — контракте с Пентагоном на анализ видеоданных с беспилотников. После масштабного внутреннего протеста руководство отказалось продлевать соглашение, а в 2019 году проект перешёл к Palantir. Нынешняя ситуация повторяет ту же логику, но масштаб контрактов и число вовлечённых компаний существенно выросли.
Пентагон открыто формулирует цель диверсификации: снизить зависимость от единственного вендора и получить возможность внедрять коммерческие ИИ-технологии независимо от корпоративной политики использования — при условии соответствия законодательству США. Фактически ведомство выстраивает конкурентную среду среди поставщиков, где условием участия становится готовность адаптировать модели под военные требования без права вето со стороны разработчика.


