1 мая 2026 года Министерство обороны США объявило о контрактах с восемью технологическими компаниями на развёртывание систем искусственного интеллекта в засекреченных военных сетях. В список вошли SpaceX, OpenAI, Google, Nvidia, Microsoft, Amazon Web Services, Oracle и малоизвестная компания Reflection. Официальная цель — «ускорить трансформацию и утвердить американскую армию как силу, основанную на ИИ», а также обеспечить «превосходство в принятии решений во всех сферах ведения войны».
Все восемь компаний приняли условие «законного оперативного использования» — формулировку, которая стала камнем преткновения в переговорах с Anthropic. Генеральный директор Anthropic Дарио Амодеи публично возражал против схожей формулировки «любое законное использование», указывая, что действующее законодательство оставляет лазейки — в частности, допускает массовую слежку с использованием коммерческих наборов данных. В ответ Пентагон квалифицировал Anthropic как риск для цепочки поставок, а администрация Трампа предписала федеральным ведомствам прекратить использование её технологий. Anthropic подала иск в суд.
| Компания | Участие в контракте | Позиция по военному ИИ |
|---|---|---|
| OpenAI | Подписала | Три публичных ограничения; юристы сомневаются в их силе |
| Подписала | Участвует без публичных оговорок | |
| Microsoft | Подписала | Участвует без публичных оговорок |
| Amazon Web Services | Подписала | Участвует без публичных оговорок |
| Nvidia | Подписала | Участвует без публичных оговорок |
| SpaceX | Подписала | Участвует без публичных оговорок |
| Oracle | Подписала | Участвует без публичных оговорок |
| Reflection | Подписала | Участвует без публичных оговорок |
| Anthropic | Отказалась | Подала иск; признана риском для цепочки поставок |
Позиция OpenAI выглядит иначе: компания публично обозначила три «красные линии» — никакой внутренней массовой слежки, никакого автономного оружия и никаких автоматизированных решений высокого риска. Однако юристы ставят под сомнение практическую ценность этих деклараций: без явных договорных оговорок в тексте контракта они носят лишь декларативный характер. В утечке внутреннего меморандума Амодеи назвал контракт OpenAI с Пентагоном «на 80% театром безопасности» — намекая, что публичные обязательства компании не подкреплены реальными механизмами контроля.
Соглашения предусматривают «законное оперативное использование» ИИ в засекреченных военных сетях.
Ситуация отражает более широкий раскол в американской технологической отрасли по вопросу военного применения ИИ. Одни компании — как OpenAI, Google и Microsoft — делают ставку на участие в государственных контрактах, рассчитывая влиять на правила использования изнутри. Другие, как Anthropic, настаивают на том, что нечёткие правовые рамки делают такое участие неприемлемым без дополнительных гарантий. Прецедент с Anthropic показателен: отказ от контракта обернулся для компании статусом «риска для цепочки поставок» и фактическим отстранением от федерального рынка.
Для отрасли в целом эти контракты означают, что крупнейшие разработчики LLM теперь напрямую интегрированы в военную инфраструктуру США. Вопрос о том, как будут работать декларируемые ограничения в условиях реальных боевых операций и засекреченных сетей, остаётся открытым — публичного аудита таких систем по определению не существует.


