Together AI uruchamia pakiet wideo Wan 2.7 w cenie 0,10 USD za sekundę
Luisa Crawford 03 kwi 2026 21:53
Model wideo AI Wan 2.7 firmy Alibaba trafia do Together AI z funkcją tekst-na-wideo już dostępną, a narzędzia obraz-na-wideo i edycji wkrótce w konkurencyjnych cenach.
Together AI wdrożyło model generowania wideo Wan 2.7 firmy Alibaba na swojej platformie chmurowej, wyceniając funkcję tekst-na-wideo na 0,10 USD za sekundę wygenerowanego materiału. Wdrożenie oznacza pierwszą dużą dostępność w chmurze dla pakietu czterech modeli, który Alibaba wydała pod koniec marca.
Model tekst-na-wideo, dostępny przez endpoint Wan-AI/wan2.7-t2v, obsługuje rozdzielczość 720p i 1080p z wynikami od 2 do 15 sekund. Wejście audio może sterować generowaniem, a kontrola narracji wieloujęciowej działa bezpośrednio poprzez język promptów—znacząca aktualizacja w porównaniu z podstawowymi systemami prompt-na-wideo, które zmuszają twórców do rozdrobnionych przepływów pracy.
Co faktycznie jest dostępne
W tej chwili dostępna jest tylko funkcja tekst-na-wideo. Together AI informuje, że możliwości obraz-na-wideo i referencja-na-wideo są "wkrótce dostępne", a narzędzia do edycji wideo mają nadejść później.
Model obraz-na-wideo będzie obsługiwał generowanie pierwszej klatki, pierwszej i ostatniej klatki oraz kontynuacji—przydatne w przepływach pracy scenorysów. Funkcja siatki 3x3-na-wideo jest skierowana do zespołów tworzących uporządkowane treści ze statycznych zasobów.
Referencja-na-wideo staje się bardziej interesująca w pracy produkcyjnej. Będzie akceptować zarówno obrazy referencyjne, jak i filmy referencyjne jako dane wejściowe, obsługując interakcje wielu postaci i złożoną kompozycję scen w rozdzielczości do 1080p dla 10-sekundowych klipów.
Funkcja edycji
Video Edit, czwarty model w pakiecie, rozwiązuje prawdopodobnie największy problem w wideo AI: niemożność wprowadzania poprawek bez rozpoczynania od nowa. Implementacja Together AI będzie obsługiwać edycję opartą na instrukcjach poprzez tekst, modyfikacje oparte na obrazach referencyjnych, transfer stylu i klonowanie cech czasowych—ruch, pracę kamery, efekty pobrane z materiału źródłowego.
Dla zespołów kreatywnych utrzymanie tych możliwości w obrębie jednego interfejsu API eliminuje chaos przekazywania, który obecnie nęka produkcję wideo AI. Większość dzisiejszych przepływów pracy polega na generowaniu w jednym narzędziu, edycji w innym i ręcznym łączeniu wyników.
Pozycjonowanie konkurencyjne
Cena 0,10 USD za sekundę stawia Together AI w zasięgu konkurentów, chociaż bezpośrednie porównania w dużej mierze zależą od parametrów rozdzielczości i czasu trwania. Sam Wan 2.7 przyciągnął uwagę od czasu marcowego wydania—recenzje nazywają go potencjalnie najsilniejszym modelem wideo AI 2026 roku, chociaż pozostaje pewien sceptycyzm wobec szumu medialnego.
Alibaba zbudowała Wan 2.7 w ramach swojego ekosystemu Qwen, a wcześniejsze wersje (2.1 i 2.2) zostały udostępnione jako open source. Czy wersja 2.7 pójdzie tą samą ścieżką, nie zostało potwierdzone, ale model jest teraz dostępny przez wielu dostawców chmury, w tym Atlas Cloud i WaveSpeedAI obok Together AI.
Szczegóły integracji
Dla programistów już korzystających z platformy Together AI dodanie generowania wideo nie wymaga nowej konfiguracji uwierzytelniania ani rozliczeń. Te same SDK działają w przypadku wnioskowania tekstu, obrazu i wideo. Firma oferuje punkty końcowe bezserwerowe do rozwoju z cenami wolumenowymi dostępnymi dla obciążeń produkcyjnych.
Zespoły oceniające technologię mogą testować bezpośrednio w playground Together AI przed zaangażowaniem się w integrację API. Pełna dokumentacja obejmuje parametry, w tym wejścia audio, kontrolę rozdzielczości i pętlę odpytywania wymaganą dla asynchronicznych zadań generowania wideo.
Źródło obrazu: Shutterstock- generowanie wideo ai
- together ai
- wan 2.7
- alibaba
- generatywna ai








