1 мая 2026 года Министерство обороны США объявило о контрактах с восемью технологическими компаниями на развёртывание систем искусственного интеллекта в засекреченных военных сетях. В список вошли SpaceX, OpenAI, Google, Nvidia, Microsoft, Amazon Web Services, Oracle и малоизвестная компания Reflection. Официальная цель — «ускорить трансформацию и утвердить американскую армию как силу, основанную на ИИ», а также обеспечить «превосходство в принятии решений во всех сферах ведения войны».

Все восемь компаний приняли условие «законного оперативного использования» — формулировку, которая стала камнем преткновения в переговорах с Anthropic. Генеральный директор Anthropic Дарио Амодеи публично возражал против схожей формулировки «любое законное использование», указывая, что действующее законодательство оставляет лазейки — в частности, допускает массовую слежку с использованием коммерческих наборов данных. В ответ Пентагон квалифицировал Anthropic как риск для цепочки поставок, а администрация Трампа предписала федеральным ведомствам прекратить использование её технологий. Anthropic подала иск в суд.

КомпанияУчастие в контрактеПозиция по военному ИИ
OpenAIПодписалаТри публичных ограничения; юристы сомневаются в их силе
GoogleПодписалаУчаствует без публичных оговорок
MicrosoftПодписалаУчаствует без публичных оговорок
Amazon Web ServicesПодписалаУчаствует без публичных оговорок
NvidiaПодписалаУчаствует без публичных оговорок
SpaceXПодписалаУчаствует без публичных оговорок
OracleПодписалаУчаствует без публичных оговорок
ReflectionПодписалаУчаствует без публичных оговорок
AnthropicОтказаласьПодала иск; признана риском для цепочки поставок

Позиция OpenAI выглядит иначе: компания публично обозначила три «красные линии» — никакой внутренней массовой слежки, никакого автономного оружия и никаких автоматизированных решений высокого риска. Однако юристы ставят под сомнение практическую ценность этих деклараций: без явных договорных оговорок в тексте контракта они носят лишь декларативный характер. В утечке внутреннего меморандума Амодеи назвал контракт OpenAI с Пентагоном «на 80% театром безопасности» — намекая, что публичные обязательства компании не подкреплены реальными механизмами контроля.

Соглашения предусматривают «законное оперативное использование» ИИ в засекреченных военных сетях.

Ситуация отражает более широкий раскол в американской технологической отрасли по вопросу военного применения ИИ. Одни компании — как OpenAI, Google и Microsoft — делают ставку на участие в государственных контрактах, рассчитывая влиять на правила использования изнутри. Другие, как Anthropic, настаивают на том, что нечёткие правовые рамки делают такое участие неприемлемым без дополнительных гарантий. Прецедент с Anthropic показателен: отказ от контракта обернулся для компании статусом «риска для цепочки поставок» и фактическим отстранением от федерального рынка.

Для отрасли в целом эти контракты означают, что крупнейшие разработчики LLM теперь напрямую интегрированы в военную инфраструктуру США. Вопрос о том, как будут работать декларируемые ограничения в условиях реальных боевых операций и засекреченных сетей, остаётся открытым — публичного аудита таких систем по определению не существует.