Письмо сотрудников Google к Sundar Pichai возвращает компанию к старому конфликту вокруг военного ИИ. Более 600 работников, по данным источника, требуют отказаться от использования моделей Google в classified workloads Пентагона. Логика письма проста: если модель попадает в секретный контур, сотрудники уже не смогут узнать, как именно она применяется, и не смогут остановить вредные сценарии.

Организаторы утверждают, что среди подписантов есть сотрудники DeepMind, а также более 20 principals, directors и vice presidents. Это делает историю не рядовым протестом, а сигналом изнутри исследовательской и управленческой части компании. Поводом стали сообщения о переговорах Google и Пентагона по развёртыванию Gemini в classified-средах.

Контекст для Google неприятный. Microsoft уже работает с AI-сервисами в закрытых средах, OpenAI объявляла о новой договорённости с Пентагоном, а Anthropic спорит с военным ведомством из-за guardrails и статуса supply chain risk. Другими словами, рынок движется к тому, что frontier-модели становятся частью оборонной инфраструктуры, а внутри компаний нет согласия, где должна проходить граница.

Организаторы утверждают, что среди подписантов есть сотрудники DeepMind и руководители высокого уровня.

Stevie Bonifield
Stevie Bonifield · Источник: The Verge AI

Для AI-индустрии это не только этический спор. Classified-сценарии могут принести крупные контракты и ускорить внедрение моделей в государстве, но они плохо совместимы с публичной проверяемостью. Чем больше модели используются в закрытых системах, тем сложнее обществу и самим разработчикам понимать, где заканчивается аналитическая помощь и начинается участие в военных операциях.