В 2025 году компании и фонды направили $6,1 млрд в разработку гуманоидных роботов — это в четыре раза превышает объём инвестиций 2024 года. Такой рост стал следствием не инженерного прорыва в механике, а смены способа обучения машин: отрасль отказалась от ручного кодирования правил в пользу моделей, обученных на больших массивах данных.
Десятилетиями робототехники работали иначе. Чтобы научить манипулятор складывать одежду, инженер описывал каждый шаг: определить воротник, захватить левый рукав, сложить на заданное расстояние, скорректировать при повороте ткани. Число правил росло экспоненциально. Примерно с 2015 года лаборатории начали заменять этот подход обучением с подкреплением: цифровая симуляция робота получала сигнал вознаграждения за успех и штраф за ошибку, накапливая опыт за миллионы итераций — по той же логике, что и ИИ в компьютерных играх.
Одним из ранних символов эпохи правил стал Jibo — безрукий и безногий социальный робот, похожий на настольную лампу. Исследователь MIT Синтия Брезил представила его в 2014 году: краудфандинговая кампания собрала $3,7 млн, предзаказы стоили $749. Jibo умел здороваться и танцевать для детей, но амбиции были шире — стать домашним ассистентом. Конкурировать с Apple Siri и Amazon Alexa на скриптовых ответах не получилось, и в 2019 году компания закрылась. Главным дефицитом оказались именно языковые возможности, которых тогда ни у кого не было.
Социальный робот Jibo, представленный в 2014 году, собрал $3,7 млн краудфандинга, но закрылся в 2019-м из-за слабых языковых возможностей
Параллельно OpenAI в 2018 году обучала роботизированную руку Dactyl решать задачи с кубиком — сначала переворачивать грань с нужной буквой, затем собирать кубик Рубика. Проблема симуляций состояла в том, что модель, отточенная в цифровой среде, давала сбои в реальном мире из-за мелких расхождений: другой коэффициент трения, иная эластичность резины на пальцах. Решением стала domain randomization — генерация миллионов симуляций с случайными вариациями освещения, цвета и физических свойств. Метод сработал: Dactyl собирал кубик Рубика в 60% случаев при стандартных перемешиваниях и в 20% при сложных. В 2021 году OpenAI свернула робототехническое направление, однако недавно возобновила его — по имеющимся данным, с фокусом на гуманоидах.
Переломным стал 2022 год. Google к тому моменту потратила 17 месяцев на съёмку людей, выполняющих 700 разных задач — от открывания банок до подбирания пакетов с чипсами. На этих данных была обучена модель RT-1: получая изображение с камеры робота и текстовую инструкцию, она генерировала команды для двигателей. Знакомые задачи RT-1 выполняла в 97% случаев, незнакомые — в 76%. Следующая версия, RT-2, дополнительно использовала данные из интернета, чтобы лучше интерпретировать визуальную информацию.
Появление ChatGPT ускорило перенос трансформерной архитектуры в робототехнику. Языковые модели предсказывают следующее слово в тексте; адаптированные для роботов версии научились предсказывать следующее действие машины — обрабатывая изображения, показания датчиков и положение суставов и выдавая десятки моторных команд в секунду. Этот подход оказался универсальным: он работает и для речевого взаимодействия, и для навигации, и для манипуляций с объектами. Вместе с практикой развёртывания несовершенных роботов в реальных условиях — чтобы они дообучались на живой среде — он и сформировал фундамент нынешнего инвестиционного цикла.


