ByteDance представила Seedance 2.0 — обновлённую версию своей модели для генерации видео по текстовому или визуальному запросу. Перевод на Habr описывает ключевые возможности и технические характеристики новинки.
По сравнению с предыдущей версией Seedance 2.0 делает несколько важных шагов. Первый — длина генерации: модель теперь поддерживает клипы продолжительностью до 10 секунд против 4–5 секунд у большинства конкурентов на аналогичном уровне качества. Второй — физическая консистентность: движение объектов, взаимодействие с водой и тканью стало заметно более правдоподобным. Третий — управление движением камеры: пользователь может указать в промпте тип съёмки (pan, zoom, tracking shot) и модель следует инструкции с высокой точностью.
Видеогенерация остаётся одним из наиболее конкурентных сегментов среди генеративных моделей. В 2025–2026 годах вышли Sora от OpenAI, Kling 1.6 от Kuaishou, Runway Gen-4 и ряд других моделей. Seedance 2.0 не претендует на лидерство по всем параметрам, но по соотношению длина/качество занимает конкурентную позицию.
Ключевые улучшения: более длинные клипы, физически правдоподобное движение, управление камерой
Доступ к Seedance 2.0 открыт через API и веб-интерфейс. Полностью открытой (open-source) версии не анонсировалось — в отличие от ряда конкурентов, ByteDance сохраняет модель проприетарной. Это ограничивает возможности для локального развёртывания, но не влияет на доступность через облачный API.
Для российских команд, работающих с видеоконтентом, Seedance 2.0 становится очередным доступным инструментом в наборе генеративных решений — с оговоркой, что стоимость API-токенов для длинных видео остаётся выше, чем у ряда альтернатив.



