Конференция MLечный путь, организованная Selectel 22 апреля 2026 года, собрала в московском Open Space на 5-м Донском проезде менеджеров, DevOps-инженеров, специалистов по безопасности и руководителей из сферы облачной инфраструктуры. Программа охватывала три крупных блока: аппаратная база для ИИ-нагрузок, применение ИИ-агентов в корпоративной среде и дискуссия о вайбкодинге.

Главной технической темой стала инфраструктура для GPU-вычислений. Selectel раскрыл, что выпускает собственные материнские платы, рассчитанные на подключение до 16 ускорителей одновременно, и использует слоты PCI Express 5.0 — актуальный стандарт, обеспечивающий максимальную пропускную способность между процессором и GPU. Использование слотов предыдущего поколения технически возможно, но снижает производительность. Порог входа для корпоративного заказчика — около 50 млн рублей за готовый сервер; при этом, по словам участников рынка, маржа продавцов формируется не на самих GPU, а на серверном оборудовании в сборе и отлаженных технологических процессах.

Отдельный акцент был сделан на китайских GPU — и здесь позиции докладчиков разошлись с тем, что звучало на DataFusion 2026, где представители крупных банков называли китайские ускорители более слабым звеном по сравнению с решениями Nvidia на архитектуре CUDA. На MLечном пути китайские чипы, напротив, представляли как конкурентоспособную альтернативу: «в 1,5 раза дешевле и не уступает по характеристикам». На стендах демонстрировались MetaX C600 с 144 ГБ памяти, Moore Threads S5000 с 80 ГБ и Ascend 910C с 128 ГБ. Один из поставщиков предлагал взять образец китайского GPU на тестирование бесплатно. По данным, прозвучавшим на конференции, на российском рынке уже присутствуют более восьми вендоров из Китая, 65–70% ИИ-нагрузок составляет inference (применение готовых моделей), а не обучение. Экосистема MUSA — программный стек для китайских GPU, аналог CUDA от Nvidia, — объединяет свыше 20 000 разработчиков. Прогноз на горизонте двух лет: Китай перейдёт от импорта ИИ-чипов к их преимущественному экспорту.

Готовый сервер с GPU-инфраструктурой обходится компании примерно в 50 млн рублей; продавцы зарабатывают преимущественно на серверном оборудовании, а не на самих GPU.

ИИ-агенты в крупном бизнесе: опыт, эффекты, затраты, ошибки
ИИ-агенты в крупном бизнесе: опыт, эффекты, затраты, ошибки · Источник: Habr AI

Не менее острой получилась дискуссия о вайбкодинге — подходе, при котором разработчик описывает задачу на естественном языке, а LLM генерирует код. Критики на сессии настаивали на неприменимости такого кода в серьёзных продуктах и допускали его лишь в учебных целях. Сторонники возражали: связка «ИИ-агент пишет — другой ИИ-агент проверяет» уже работает в реальных командах — похожую схему с собственным git-сервером и агентом-ревьювером ранее описывали на конференции Яндекс JVM. Вопрос архитектурного качества при этом остаётся открытым: генерируемый код нередко смешивает подходы из разных парадигм, игнорируя принципы SOLID, Clean Architecture или TDD. Однако для задач, где скорость важнее идеальной структуры, этот компромисс может быть осознанным выбором.

Доклады в целом были ориентированы на аудиторию, которая уже знакома с темой генеративного ИИ, но хочет разобраться в прикладных деталях: построение RAG-систем внутри компании, подбор размера чанков, получение метрик качества. Формат площадки Connect Space позволял наблюдать за докладами с верхнего яруса — участники отмечали это как редкую возможность для подобных мероприятий.