Александр Сахаров из «Диасофт» и технические руководители нескольких российских ИТ-компаний зафиксировали три сценария, которые раз за разом приводят к провалу крупных проектов. Все три выглядят логично на бумаге — и все три не работают на практике.

Первый миф: нанять больше людей. Крупные корпорации, в том числе банки, периодически делают ставку на масштаб: собирают команды в тысячи человек в расчёте на скорость. Результат предсказуем — высокие зарплатные расходы, низкое качество кода, рассинхронизированные UX-процессы и постоянные проблемы с информационной безопасностью. Андрей Потапов из Рексофта напомнил, что закон Брукса сформулирован ещё в 1975 году: добавление людей в запаздывающий проект только увеличивает сроки из-за коммуникационных издержек. «Нельзя взять девять человек и за месяц сделать то, что по естественному ходу требует семи месяцев», — говорит он. Роман Кучерский из Rapporto добавляет: попытка вырастить джунов внутри компании ради экономии неизбежно накапливает технический долг, который через шесть-двенадцать месяцев требует полного переписывания.

Второй миф: ИИ перепишет всё за ночь. Сахаров описывает типичный запрос: заказчик хочет отдать нейросети легаси-систему, которую писали пятнадцать лет, и получить обратно современный код за несколько месяцев без привлечения профессионалов. На практике это не работает по техническим причинам: ни одна модель с большим контекстным окном не способна качественно переработать кодовую базу из 150 тысяч строк и десяти тысяч объектов. Потапов проводит аналогию с Boeing: компания не может строить 747-й, потому что носители нужных компетенций просто ушли с рынка. Код — такой же носитель знаний, и нейросеть не восстановит архитектурные решения, которые нигде не задокументированы.

Крупные банки нанимают тысячи разработчиков, но получают рассинхронизированный код и проблемы с безопасностью.

Три мифа о разработке: почему тысячи джунов и ИИ не заменят архитектуру
· Источник: Habr AI

При этом участники дискуссии не отрицают полезность ИИ-инструментов. Сергей Жучков указывает, что волна Cursor, начавшаяся в США полтора года назад, уже меняет экономику разработки: крупнейшие софтверные компании сделали расход токенов одной из ключевых метрик эффективности, а ежемесячные расходы на токены у передовых команд исчисляются десятками и сотнями тысяч долларов. Один из его знакомых выстроил процесс, где пять моделей генерируют код, а люди его верифицируют. Такие команды сокращают time-to-market и быстрее закрывают баги.

Третий миф: дешёвые специалисты плюс ИИ равно дорогой результат. Виктория Смирнова из Outlines Tech формулирует жёстко: специалист с опытом «на десять условных единиц» не решит задачу сложностью «четырнадцать», даже если два часа поработает с ИИ-агентом. Потолок компетенции никуда не исчезает. Кучерский добавляет, что перед генерацией кода необходимо выстроить архитектурные артефакты и ограничения по информационной безопасности — а это требует глубокой экспертизы в проектировании систем, а не просто навыка написания промптов.

Общий знаменатель всех трёх мифов — попытка заменить архитектурную зрелость команды количеством ресурсов, будь то люди или токены. Сахаров резюмирует: когда 400 команд, как в Альфа-банке, каждая выпускает то, что «навайбкодила», результат будет рассинхронизирован вне зависимости от того, писал код человек или нейросеть. Единый фреймворк стандартов, в который ложатся результаты всех команд, — необходимое условие, без которого масштаб только умножает хаос.