Amazon встроила в SageMaker AI агентный слой, который автоматизирует дообучение языковых моделей. Раньше разработчику приходилось вручную разбираться с разными API, форматами данных и конфигурациями обучения — в зависимости от выбранной модели и метода. Теперь достаточно описать задачу на обычном языке: агент сам определяет подходящий способ обучения, готовит данные и запускает процесс.
Дообучение (fine-tuning) — это адаптация уже обученной языковой модели под конкретную задачу или домен. Базовая модель, например Llama 3.1 или DeepSeek, обучена на огромных массивах текста и умеет многое, но плохо справляется с узкоспециализированными запросами — юридическими документами, медицинскими протоколами или внутренними регламентами компании. Дообучение на целевых данных исправляет это, но требует экспертизы в MLOps: нужно правильно подготовить датасет, выбрать метод (полное дообучение, LoRA, RLHF и другие), настроить инфраструктуру и отследить результат. Именно этот барьер Amazon и пытается снять.
| Модельное семейство | Разработчик |
|---|---|
| Llama | Meta |
| Qwen | Alibaba |
| DeepSeek | DeepSeek |
| Nova | Amazon |
Агент работает через девять встроенных «навыков» (skills), которые последовательно закрывают весь пайплайн: проверка и предобработка датасета, выбор метода обучения, запуск тренировочного задания, оценка результатов и деплой готовой модели. Весь сгенерированный код оформляется в виде Jupyter-ноутбуков — их можно редактировать и переиспользовать в других проектах, что важно для команд, которые хотят сохранить контроль над процессом, а не работать с чёрным ящиком.
Девять встроенных «навыков» покрывают полный пайплайн: проверка датасета, запуск обучения, деплой модели.
По умолчанию в среде разработки предустановлен агент Kiro — собственная разработка Amazon. Однако архитектура открытая: разработчики могут подключить Claude Code от Anthropic или любой другой совместимый агент. Это снижает привязку к конкретному инструменту и позволяет встраивать новый функционал в уже существующие рабочие процессы.
Поддерживаемые семейства моделей охватывают основные open-source варианты, востребованные в корпоративной среде: Llama (Meta), Qwen (Alibaba), DeepSeek, а также собственное семейство Amazon Nova. Выбор именно этих моделей отражает реальный спрос: Llama и DeepSeek — наиболее популярные базы для корпоративного дообучения, Qwen активно используется в азиатских рынках, Nova — флагманское предложение самой Amazon.
Для отрасли обновление означает дальнейшее снижение порога входа в MLOps. Крупные облачные провайдеры — Google с Vertex AI, Microsoft с Azure ML — давно движутся в сторону автоматизации пайплайнов машинного обучения, и Amazon усиливает конкуренцию в этом сегменте. Агентный подход к fine-tuning логично продолжает тренд на «разговорные» интерфейсы для инфраструктурных задач: если раньше агенты помогали писать код, теперь они управляют полным жизненным циклом модели.



