Порог входа в разработку снизился настолько, что написать рабочее приложение сегодня можно, не зная ни одного синтаксического правила. Claude Code от Anthropic и Codex от OpenAI берут на себя генерацию кода целыми блоками — и именно поэтому среди разработчиков нарастает тревога, которой нет у большинства других профессий.
Код — та область, где LLM объективно справляются лучше, чем с большинством других задач. Причина структурная: языки программирования изначально созданы как формальные системы с жёстким синтаксисом и ограниченным числом допустимых комбинаций. Это делает задачу предсказания следующего токена значительно проще, чем в случае с естественным языком. Отсюда — высокое качество генерации и ощущение, что инструмент «всё понимает».
Но именно это ощущение и опасно. Автор материала на Habr приводит показательную аналогию: Казимир Малевич написал «Чёрный квадрат» не потому, что закрасить холст черной краской технически сложно. А потому что к 1915 году он был глубоко погружён во все актуальные течения — от импрессионизма до кубизма, активно выставлялся и имел сложившуюся теоретическую базу. Квадрат был радикальным художественным жестом человека, который знал, от чего отказывается. Повторить форму без контекста — значит получить просто закрашенный холст.
ИИ-инструменты делают сильных инженеров эффективнее, а слабых — ещё менее конкурентоспособными.
С вайбкодингом та же механика. Если разработчик не понимает, как работает сгенерированный код, он не сможет найти ошибку, когда модель её допустит — а она допустит. Это не гипотетический риск: LLM предсказывают токены на основе существующих знаний и не имеют механизма верификации логики. Ошибки в архитектуре, в безопасности, в граничных условиях — всё это остаётся за пределами того, что инструмент способен гарантированно отловить.
На уровне рынка труда последствия уже видны. Зарплата джуна в России опустилась ниже средней по стране, а конкуренция за такие позиции только выросла. Компании сокращают найм на начальных уровнях, рассчитывая, что ИИ-инструменты компенсируют нехватку рук. Но это создаёт структурный разрыв: мидлы и сеньоры не берутся из воздуха — они вырастают из джунов, которых перестали нанимать и обучать. Через несколько лет отрасль рискует столкнуться с дефицитом опытных инженеров при избытке людей, умеющих только формулировать промпты.
Параллельно возникает проблема датасетов. Модели обучаются на текстах и коде, созданных людьми. Если значительная часть нового кода будет генерироваться предыдущими моделями без экспертной проверки, качество обучающих данных для следующих поколений LLM начнёт деградировать. Это замкнутый круг, который индустрия пока только начинает осознавать.
Аналогия с блогами здесь тоже уместна. Когда в нулевых появился ЖЖ и порог входа в публикацию упал до двух кликов, количество контента резко выросло, а среднее качество — упало. Это произошло задолго до ChatGPT. Инструменты, снижающие усилие, неизбежно меняют соотношение сигнала и шума — вопрос только в масштабе.
Практический вывод, который следует из этой логики: ИИ-инструменты усиливают тех, кто понимает предметную область, и обнажают слабости тех, кто её не понимает. Программист, знающий архитектуру и способный читать чужой код, использует Claude Code как мультипликатор своей продуктивности. Тот, чьи навыки ограничены промптингом, получает работающий прототип — и беспомощность при первом же нетривиальном баге. Разрыв между этими двумя позициями будет только увеличиваться.



