Несколько компаний из сферы ИИ ведут переговоры с провайдерами космических запусков о строительстве орбитальных дата-центров. Автор разбора — инженер и учёный NASA с докторской степенью в области космической электроники, проработавший десять лет в Google, в том числе в подразделении облачных технологий, отвечавшем за развёртывание ИИ-ресурсов. Его вывод однозначен: электроника, необходимая для современных GPU- и TPU-нагрузок, принципиально несовместима с условиями космоса.

Первый барьер — энергоснабжение. В космосе доступны два источника: солнечные панели и ядерные установки. Солнечная батарея МКС — крупнейшая из когда-либо развёрнутых в космосе — занимает около 2500 квадратных метров (больше половины поля для американского футбола) и в пиковом режиме выдаёт чуть более 200 кВт. Один GPU NVIDIA H200 потребляет порядка 0,7 кВт, а с учётом вспомогательной инфраструктуры и потерь при преобразовании — около 1 кВт. Итого батарея МКС способна питать примерно 200 таких чипов. Для сравнения: строящийся дата-центр OpenAI в Норвегии рассчитан на 100 000 GPU. Чтобы обеспечить его аналогом в космосе, потребовалось бы 500 спутников размером с МКС. При этом одна серверная стойка NVIDIA в стандартной конфигурации вмещает 72 GPU — то есть каждый гигантский спутник эквивалентен примерно трём стойкам.

ПараметрМКС (солнечная батарея)Дата-центр OpenAI (Норвегия)
Площадь / масштаб~2500 м²Наземный объект
Пиковая мощность~200 кВтСоответствует ~100 000 GPU
Количество GPU H200 (эквивалент)~200~100 000
Спутников МКС-размера для паритета1~500

Радиоизотопные термоэлектрические генераторы (РИТЭГ), которые используются на межпланетных зондах, проблему не решают: их мощность составляет 50–150 Вт, что меньше потребления одного GPU. Кроме того, РИТЭГ работают на плутонии — материале с жёсткими ограничениями на использование и очевидными рисками при аварии ракеты-носителя.

Дата-центр OpenAI в Норвегии рассчитан на 100 000 GPU: для аналогичной мощности в космосе понадобится 500 спутников размером с МКС.

Почему дата-центры в космосе не работают: разбор от инженера NASA и Google
· Источник: Habr AI

Второй барьер — терморегулирование. Распространённое заблуждение: раз в космосе холодно, охлаждать оборудование там проще. На практике всё наоборот. На Земле дата-центры отводят тепло через воздушную конвекцию или жидкостное охлаждение с последующим рассеиванием тепла в атмосфере. В вакууме конвекции нет вообще. Тепло можно передавать только через теплопроводность или тепловой насос, а рассеивать — только через излучение. При этом температура поверхности спутника зависит от ориентации: сторона, обращённая к Солнцу, разогревается до сотен градусов Цельсия, теневая сторона стремится к 4 кельвинам (чуть выше абсолютного нуля).

Система активного терморегулирования МКС — показательный пример того, насколько сложна эта задача даже без GPU-нагрузки. Она включает контур охлаждения на аммиаке и несколько больших радиаторных панелей. Автор разбора, проектировавший космические камеры для научных миссий, описывает, как при разработке компактного прибора мощностью около 1 Вт основные усилия уходили именно на тепловое управление — и это при нагрузке, несопоставимо меньшей, чем у одного H200. Охлаждение GPU с жидкостным контуром в космосе потребует радиаторной панели, излучающей тепло в сторону от Солнца, — системы, сравнимой по сложности с терморегулированием МКС, но рассчитанной на несравнимо большую тепловую нагрузку.

Таким образом, оба фундаментальных требования к ИИ-инфраструктуре — достаточная электрическая мощность и эффективный отвод тепла — в условиях орбиты либо физически недостижимы в нужных масштабах, либо требуют инженерных решений, стоимость и сложность которых делают идею экономически бессмысленной. Земные дата-центры, даже с учётом затрат на охлаждение и электроэнергию, остаются на несколько порядков эффективнее любого орбитального аналога.