Вячеслав Дёмин, руководитель направления аналитики данных в Сбере и эксперт Яндекс Практикума, описал практику применения ИИ-инструментов в Data Science — не в теории, а на конкретных рабочих сценариях. По его словам, нейросети пока не стали обязательным требованием работодателей, но большинство специалистов уже используют их ежедневно.

Самый распространённый сценарий — работа с кодом. Дёмин использует GigaCode, ассистент на базе GigaChat, как основной инструмент автодополнения и объяснения фрагментов. По функциональности он близок к GitHub Copilot, но требует отдельной настройки и подключения, тогда как Copilot глубже встроен в стандартный IDE-стек. Для более сложных задач — рефакторинга целых модулей, работы с контекстом проекта — используется Cursor: среда, где можно задавать инструкции, описывать стиль кода и требования, а модель анализирует открытые файлы и релевантные части проекта. Для SQL-запросов Дёмин выделяет DataGrip: инструмент позволяет не только генерировать и оптимизировать запросы, но и смотреть execution plan — план выполнения запроса в СУБД — без ручной проверки.

Отдельный класс решений — агентные пайплайны. В отличие от обычного чат-ассистента, агент не просто отвечает на вопрос, а выбирает следующий шаг, вызывает внешние инструменты и передаёт результат дальше по цепочке. Чаще всего такие системы строят с помощью LangChain и LangGraph. Типичный сценарий — маршрутизация: агент определяет тип задачи и направляет запрос в нужную ноду графа с соответствующим промптом. Это позволяет автоматизировать многошаговые процессы без участия человека на каждом шаге.

Агентные пайплайны на LangChain и LangGraph позволяют LLM не просто отвечать, а маршрутизировать задачи по цепочке.

Здесь GigaCode пытается предложить число в параметр seed()
Здесь GigaCode пытается предложить число в параметр seed() · Источник: Habr AI

Однако Дёмин подробно останавливается на ограничениях. Главная скрытая угроза — логические ошибки, которые не ломают код синтаксически, но искажают результат. Классический пример из его практики: нейросеть сгенерировала признак с target leakage — случайно продублировала целевую переменную в обучающих данных. Метрика на тестовой выборке показала 0,98 вместо требуемых 0,95, но на проде модель немедленно деградировала. Такую ошибку легко пропустить при ревью, особенно если разработчик доверяет высокому качеству метрики.

Ещё одна системная проблема — накопление субоптимального кода. Copilot может предложить рабочую, но нестандартную конструкцию — например, for-else в Python, которая технически корректна, но редко используется и плохо читается в команде. Если разработчик не замечает этого и оставляет в кодовой базе, со временем такие решения тиражируются и становятся локальным стандартом. Дёмин сравнивает это со стажёром, которого учат исключительно на плохих примерах. Нейросеть также не удерживает полный контекст системы: она не знает нефункциональных требований заказчика, архитектурных ограничений и договорённостей внутри команды — всего того, что опытный специалист держит в голове при принятии решений.