Together AI запускает видео-пакет Wan 2.7 по цене 0,10 $ за секунду
Luisa Crawford 21:53, 03 апреля 2026
Модель Wan 2.7 ИИ-видео от Alibaba появилась в Together AI с функцией текст-в-видео, инструменты изображение-в-видео и редактирования скоро станут доступны по конкурентным ценам.
Together AI развернул модель генерации видео Wan 2.7 от Alibaba на своей облачной платформе, установив цену на возможность текст-в-видео в 0,10 $ за секунду сгенерированного материала. Развертывание знаменует первую крупную облачную доступность пакета из четырех моделей, выпущенного Alibaba в конце марта.
Модель текст-в-видео, доступная через конечную точку Wan-AI/wan2.7-t2v, поддерживает разрешение 720p и 1080p с выходными данными от 2 до 15 секунд. Аудиовход может управлять генерацией, а многокадровое управление повествованием работает напрямую через язык подсказок — значительное улучшение по сравнению с базовыми системами подсказка-в-видео, которые заставляют создателей использовать фрагментированные рабочие процессы.
Что фактически выпущено
На данный момент доступна только функция текст-в-видео. Together AI сообщает, что возможности изображение-в-видео и референс-в-видео «скоро появятся», за ними последуют инструменты редактирования видео.
Модель изображение-в-видео будет поддерживать генерацию первого кадра, первого и последнего кадра и продолжения — полезно для рабочих процессов раскадровки. Функция сетка 3x3-в-видео ориентирована на команды, создающие структурированный контент из статических ресурсов.
Референс-в-видео становится более интересным для производственной работы. Он будет принимать как референсные изображения, так и референсные видео в качестве входных данных, обрабатывая взаимодействие нескольких персонажей и сложную композицию сцен с разрешением до 1080p для 10-секундных клипов.
Редактирование
Video Edit, четвертая модель в пакете, решает, возможно, самую большую проблему ИИ-видео: невозможность редактирования без начала с нуля. Реализация Together AI будет поддерживать редактирование на основе инструкций через текст, модификации на основе референсных изображений, перенос стиля и клонирование временных функций — движение, работа камеры, эффекты, взятые из исходного материала.
Для творческих команд сохранение этих возможностей в рамках одного API-интерфейса устраняет хаос передачи данных, который в настоящее время преследует производство ИИ-видео. Большинство современных рабочих процессов включают генерацию в одном инструменте, редактирование в другом и ручное исправление результатов.
Конкурентное позиционирование
Цена 0,10 $ за секунду ставит Together AI в конкурентную позицию с конкурентами, хотя прямые сравнения сильно зависят от параметров разрешения и длительности. Сам Wan 2.7 привлек внимание с момента выпуска в марте — обзоры назвали его потенциально самой сильной моделью ИИ-видео 2026 года, хотя некоторый скептицизм относительно ажиотажа остается.
Alibaba создал Wan 2.7 в рамках своей экосистемы Qwen, и более ранние версии (2.1 и 2.2) были открытыми. Последует ли версия 2.7 этому пути, не подтверждено, но модель теперь доступна через нескольких облачных провайдеров, включая Atlas Cloud и WaveSpeedAI, наряду с Together AI.
Детали интеграции
Для разработчиков, уже использующих платформу Together AI, добавление генерации видео не требует новой аутентификации или настройки выставления счетов. Те же SDK работают для текстового, графического и видеовывода. Компания предлагает бессерверные конечные точки для разработки с объемным ценообразованием, доступным для производственных рабочих нагрузок.
Команды, оценивающие технологию, могут протестировать ее непосредственно в песочнице Together AI перед переходом к интеграции API. Полная документация охватывает параметры, включая аудиовходы, управление разрешением и цикл опроса, необходимый для асинхронных заданий генерации видео.
Источник изображения: Shutterstock- генерация ИИ-видео
- together ai
- wan 2.7
- alibaba
- генеративный ИИ








