Несколько компаний из сферы ИИ ведут переговоры с провайдерами космических запусков о строительстве орбитальных дата-центров. Автор разбора — инженер и учёный NASA с докторской степенью в области космической электроники, проработавший десять лет в Google, в том числе в подразделении облачных технологий, отвечавшем за развёртывание ИИ-ресурсов. Его вывод однозначен: электроника, необходимая для современных GPU- и TPU-нагрузок, принципиально несовместима с условиями космоса.
Первый барьер — энергоснабжение. В космосе доступны два источника: солнечные панели и ядерные установки. Солнечная батарея МКС — крупнейшая из когда-либо развёрнутых в космосе — занимает около 2500 квадратных метров (больше половины поля для американского футбола) и в пиковом режиме выдаёт чуть более 200 кВт. Один GPU NVIDIA H200 потребляет порядка 0,7 кВт, а с учётом вспомогательной инфраструктуры и потерь при преобразовании — около 1 кВт. Итого батарея МКС способна питать примерно 200 таких чипов. Для сравнения: строящийся дата-центр OpenAI в Норвегии рассчитан на 100 000 GPU. Чтобы обеспечить его аналогом в космосе, потребовалось бы 500 спутников размером с МКС. При этом одна серверная стойка NVIDIA в стандартной конфигурации вмещает 72 GPU — то есть каждый гигантский спутник эквивалентен примерно трём стойкам.
| Параметр | МКС (солнечная батарея) | Дата-центр OpenAI (Норвегия) |
|---|---|---|
| Площадь / масштаб | ~2500 м² | Наземный объект |
| Пиковая мощность | ~200 кВт | Соответствует ~100 000 GPU |
| Количество GPU H200 (эквивалент) | ~200 | ~100 000 |
| Спутников МКС-размера для паритета | 1 | ~500 |
Радиоизотопные термоэлектрические генераторы (РИТЭГ), которые используются на межпланетных зондах, проблему не решают: их мощность составляет 50–150 Вт, что меньше потребления одного GPU. Кроме того, РИТЭГ работают на плутонии — материале с жёсткими ограничениями на использование и очевидными рисками при аварии ракеты-носителя.
Дата-центр OpenAI в Норвегии рассчитан на 100 000 GPU: для аналогичной мощности в космосе понадобится 500 спутников размером с МКС.

Второй барьер — терморегулирование. Распространённое заблуждение: раз в космосе холодно, охлаждать оборудование там проще. На практике всё наоборот. На Земле дата-центры отводят тепло через воздушную конвекцию или жидкостное охлаждение с последующим рассеиванием тепла в атмосфере. В вакууме конвекции нет вообще. Тепло можно передавать только через теплопроводность или тепловой насос, а рассеивать — только через излучение. При этом температура поверхности спутника зависит от ориентации: сторона, обращённая к Солнцу, разогревается до сотен градусов Цельсия, теневая сторона стремится к 4 кельвинам (чуть выше абсолютного нуля).
Система активного терморегулирования МКС — показательный пример того, насколько сложна эта задача даже без GPU-нагрузки. Она включает контур охлаждения на аммиаке и несколько больших радиаторных панелей. Автор разбора, проектировавший космические камеры для научных миссий, описывает, как при разработке компактного прибора мощностью около 1 Вт основные усилия уходили именно на тепловое управление — и это при нагрузке, несопоставимо меньшей, чем у одного H200. Охлаждение GPU с жидкостным контуром в космосе потребует радиаторной панели, излучающей тепло в сторону от Солнца, — системы, сравнимой по сложности с терморегулированием МКС, но рассчитанной на несравнимо большую тепловую нагрузку.
Таким образом, оба фундаментальных требования к ИИ-инфраструктуре — достаточная электрическая мощность и эффективный отвод тепла — в условиях орбиты либо физически недостижимы в нужных масштабах, либо требуют инженерных решений, стоимость и сложность которых делают идею экономически бессмысленной. Земные дата-центры, даже с учётом затрат на охлаждение и электроэнергию, остаются на несколько порядков эффективнее любого орбитального аналога.



