Для большинства задач при работе с AI-видео достаточно инструментов от трёх вендоров:
1. Google с Veo3.1.
2. Kling с их выводком моделей и инструментов.
3. OpenAI с Sora 2.
Мне очень нравятся перемены, которые происходят в AI-видеогенерации последние полгода.
Что изменилось?
Был у меня пост в конце июля. Там я писал о сложностях в работе с новыми AI-video-моделями, потому что на тот момент они умели генерировать очень красивые видео по текстовому описанию. На этом возможности заканчивались.
Нужны были более сложные инструменты, чтобы обеспечить лучший контроль результата.
К концу года Kling и Google выпустили множество инструментов, которые позволяют:
1. Делать lipsync по изображению+аудио и получать результат лучше, чем у HeyGen (Kling).
2. Продлевать существующее видео (Veo3.1 и только на 7 секунд).
3. Генерация по первому и последнему кадру (Veo и Kling).
4. Использование нескольких изображений-референсов для генерации видео (Veo3.1 и Kling).
5. Использование видео-референса для генерации (Kling).
Всё это внушает надежду, что в 2026-м году появятся более специализированные инструменты, которые позволят при помощи AI создавать достаточно сложные сцены с максимальным контролем.
Недавно вышел Wan Move, который позволяет задавать движение для изображения, указывая точки для перемещения. Это пример того, что хотелось бы видеть среди инструментов от Google и Kling.
Кстати, заметили, что OpenAI опять забил на развитие AI-видеогенераций? И до сих пор предлагает хоть и качественную, но достаточно сырую по инструментам (и дорогую при этом!) Sora2.

Добавить комментарий