Together AI bringt Wan 2.7 Video Suite für 0,10 $ pro Sekunde auf den Markt
Luisa Crawford 03.04.2026 21:53
Alibabas Wan 2.7 KI-Videomodell kommt zu Together AI mit Text-to-Video jetzt live, Bild-to-Video und Bearbeitungswerkzeuge folgen bald zu wettbewerbsfähigen Preisen.
Together AI hat Alibabas Wan 2.7 Videogenerierungsmodell auf seiner Cloud-Plattform eingeführt und bepreist die Text-to-Video-Funktion mit 0,10 $ pro Sekunde generiertem Material. Die Einführung markiert die erste größere Cloud-Verfügbarkeit für die Vier-Modell-Suite, die Alibaba Ende März veröffentlicht hat.
Das Text-to-Video-Modell, erreichbar über den Endpunkt Wan-AI/wan2.7-t2v, unterstützt 720p- und 1080p-Auflösung mit Ausgaben von 2 bis 15 Sekunden. Audio-Eingaben können die Generierung steuern, und Multi-Shot-Narrativ-Kontrolle funktioniert direkt über Prompt-Sprache – ein bedeutendes Upgrade gegenüber einfachen Prompt-to-Video-Systemen, die Ersteller zu fragmentierten Workflows zwingen.
Was tatsächlich verfügbar ist
Im Moment ist nur Text-to-Video live. Together AI sagt, dass Bild-to-Video- und Referenz-to-Video-Funktionen „demnächst kommen", gefolgt von Video-Bearbeitungswerkzeugen.
Das Bild-to-Video-Modell wird First-Frame-, First-and-Last-Frame- und Fortsetzungsgenerierung unterstützen – nützlich für Storyboarding-Workflows. Eine 3x3-Grid-to-Video-Funktion richtet sich an Teams, die strukturierte Inhalte aus statischen Assets erstellen.
Referenz-to-Video wird für Produktionsarbeiten interessanter. Es akzeptiert sowohl Referenzbilder als auch Referenzvideos als Eingaben und verarbeitet Mehrcharakter-Interaktionen und komplexe Szenenkompositionen mit bis zu 1080p für 10-Sekunden-Clips.
Die Bearbeitungsfunktion
Video Edit, das vierte Modell der Suite, adressiert wohl den größten Schmerzpunkt bei KI-Videos: die Unfähigkeit zu überarbeiten, ohne von vorne zu beginnen. Together AIs Implementierung wird anweisungsbasierte Bearbeitung über Text, referenzbildbasierte Modifikationen, Stilübertragung und zeitliches Feature-Klonen unterstützen – Bewegung, Kameraarbeit, Effekte aus Quellmedien übernommen.
Für kreative Teams eliminiert das Behalten dieser Funktionen innerhalb einer API-Oberfläche das Übergabechaos, das derzeit die KI-Videoproduktion plagt. Die meisten Workflows beinhalten heute das Generieren in einem Tool, Bearbeiten in einem anderen und manuelles Zusammenfügen der Ergebnisse.
Wettbewerbspositionierung
Die Preisgestaltung von 0,10 $ pro Sekunde bringt Together AI in Schlagdistanz zu Konkurrenten, obwohl direkte Vergleiche stark von Auflösungs- und Dauerparametern abhängen. Wan 2.7 selbst hat seit seiner Veröffentlichung im März Aufmerksamkeit erregt – Bewertungen haben es als potenziell stärkstes KI-Videomodell von 2026 bezeichnet, obwohl etwas Skepsis über den Hype bleibt.
Alibaba baute Wan 2.7 innerhalb seines Qwen-Ökosystems, und frühere Versionen (2.1 und 2.2) wurden als Open Source veröffentlicht. Ob 2.7 diesem Pfad folgt, wurde nicht bestätigt, aber das Modell ist jetzt über mehrere Cloud-Anbieter einschließlich Atlas Cloud und WaveSpeedAI neben Together AI zugänglich.
Integrationsdetails
Für Entwickler, die bereits auf Together AIs Plattform sind, erfordert das Hinzufügen von Videogenerierung keine neue Authentifizierung oder Abrechnungseinrichtung. Dieselben SDKs funktionieren über Text-, Bild- und Video-Inferenz hinweg. Das Unternehmen bietet serverlose Endpunkte für die Entwicklung mit Mengenpreisen für Produktions-Workloads.
Teams, die die Technologie evaluieren, können direkt im Playground von Together AI testen, bevor sie sich auf API-Integration festlegen. Die vollständige Dokumentation deckt Parameter einschließlich Audio-Eingaben, Auflösungssteuerung und der Polling-Schleife ab, die für asynchrone Videogenerierungsjobs erforderlich ist.
Bildquelle: Shutterstock- KI-Videogenerierung
- together ai
- wan 2.7
- alibaba
- generative KI



![[Vantage Point] Die P1-Milliarden-Schicht im LTO DBP-DCI-Versicherungszertifikatssystem](https://www.rappler.com/tachyon/2026/04/1000030483.jpg?resize=75%2C75&crop_strategy=attention)




