Для большинства задач при работе с AI-видео достаточно инструментов от трёх вендоров: 1. Google с V

Для большинства задач при работе с AI-видео достаточно инструментов от трёх вендоров:

1. Google с Veo3.1.

2. Kling с их выводком моделей и инструментов.

3. OpenAI с Sora 2.

Мне очень нравятся перемены, которые происходят в AI-видеогенерации последние полгода.

Что изменилось?

Был у меня пост в конце июля. Там я писал о сложностях в работе с новыми AI-video-моделями, потому что на тот момент они умели генерировать очень красивые видео по текстовому описанию. На этом возможности заканчивались.

Нужны были более сложные инструменты, чтобы обеспечить лучший контроль результата.

К концу года Kling и Google выпустили множество инструментов, которые позволяют:

1. Делать lipsync по изображению+аудио и получать результат лучше, чем у HeyGen (Kling).

2. Продлевать существующее видео (Veo3.1 и только на 7 секунд).

3. Генерация по первому и последнему кадру (Veo и Kling).

4. Использование нескольких изображений-референсов для генерации видео (Veo3.1 и Kling).

5. Использование видео-референса для генерации (Kling).

Всё это внушает надежду, что в 2026-м году появятся более специализированные инструменты, которые позволят при помощи AI создавать достаточно сложные сцены с максимальным контролем.

Недавно вышел Wan Move, который позволяет задавать движение для изображения, указывая точки для перемещения. Это пример того, что хотелось бы видеть среди инструментов от Google и Kling.

Кстати, заметили, что OpenAI опять забил на развитие AI-видеогенераций? И до сих пор предлагает хоть и качественную, но достаточно сырую по инструментам (и дорогую при этом!) Sora2.

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *