Together AI ने $0.10 प्रति सेकंड पर Wan 2.7 वीडियो सूट लॉन्च किया
Luisa Crawford 03 अप्रैल, 2026 21:53
Alibaba का Wan 2.7 AI वीडियो मॉडल Together AI पर आ गया है, टेक्स्ट-टू-वीडियो अब लाइव है, इमेज-टू-वीडियो और एडिटिंग टूल्स जल्द ही प्रतिस्पर्धी मूल्य निर्धारण पर आने वाले हैं।
Together AI ने अपने क्लाउड प्लेटफॉर्म पर Alibaba के Wan 2.7 वीडियो जनरेशन मॉडल को रोल आउट किया है, जिसमें टेक्स्ट-टू-वीडियो क्षमता की कीमत जनरेट किए गए फुटेज के प्रति सेकंड $0.10 रखी गई है। यह तैनाती चार-मॉडल सूट की पहली प्रमुख क्लाउड उपलब्धता को चिह्नित करती है जिसे Alibaba ने मार्च के अंत में जारी किया था।
टेक्स्ट-टू-वीडियो मॉडल, जो Wan-AI/wan2.7-t2v एंडपॉइंट के माध्यम से सुलभ है, 720p और 1080p रिज़ॉल्यूशन का समर्थन करता है जिसमें 2 से 15 सेकंड तक के आउटपुट होते हैं। ऑडियो इनपुट जनरेशन को ड्राइव कर सकता है, और मल्टी-शॉट नैरेटिव कंट्रोल सीधे प्रॉम्प्ट भाषा के माध्यम से काम करता है—बेसिक प्रॉम्प्ट-टू-वीडियो सिस्टम की तुलना में एक सार्थक अपग्रेड जो क्रिएटर्स को खंडित वर्कफ़्लो में धकेलते हैं।
वास्तव में क्या शिप हो रहा है
अभी केवल टेक्स्ट-टू-वीडियो लाइव है। Together AI का कहना है कि इमेज-टू-वीडियो और रेफरेंस-टू-वीडियो क्षमताएं "जल्द आ रही हैं," वीडियो एडिटिंग टूल्स बाद में आएंगे।
इमेज-टू-वीडियो मॉडल फर्स्ट-फ्रेम, फर्स्ट-एंड-लास्ट-फ्रेम और कंटिन्यूएशन जनरेशन का समर्थन करेगा—स्टोरीबोर्डिंग वर्कफ़्लो के लिए उपयोगी। 3x3 ग्रिड-टू-वीडियो फीचर स्टेटिक एसेट्स से संरचित कंटेंट बनाने वाली टीमों को लक्षित करता है।
रेफरेंस-टू-वीडियो प्रोडक्शन कार्य के लिए अधिक दिलचस्प हो जाता है। यह रेफरेंस इमेज और रेफरेंस वीडियो दोनों को इनपुट के रूप में स्वीकार करेगा, 10-सेकंड की क्लिप के लिए 1080p तक मल्टी-कैरेक्टर इंटरैक्शन और जटिल सीन कंपोजीशन को संभालेगा।
एडिटिंग प्ले
वीडियो एडिट, सूट में चौथा मॉडल, AI वीडियो में संभवतः सबसे बड़े दर्द बिंदु को संबोधित करता है: शुरुआत से शुरू किए बिना संशोधित करने की असमर्थता। Together AI का कार्यान्वयन टेक्स्ट के माध्यम से इंस्ट्रक्शन-आधारित एडिटिंग, रेफरेंस इमेज-आधारित संशोधन, स्टाइल ट्रांसफर और टेम्पोरल फीचर क्लोनिंग का समर्थन करेगा—मोशन, कैमरा वर्क, स्रोत मीडिया से लिए गए इफेक्ट्स।
क्रिएटिव टीमों के लिए, इन क्षमताओं को एक API सरफेस के भीतर रखना उस हैंडऑफ अराजकता को समाप्त करता है जो वर्तमान में AI वीडियो प्रोडक्शन को परेशान करती है। आज के अधिकांश वर्कफ़्लो में एक टूल में जनरेट करना, दूसरे में एडिट करना और मैन्युअल रूप से परिणामों को पैच करना शामिल है।
प्रतिस्पर्धी स्थिति
$0.10 प्रति सेकंड की कीमत Together AI को प्रतिस्पर्धियों की हड़ताली दूरी में रखती है, हालांकि सीधी तुलना रिज़ॉल्यूशन और अवधि मापदंडों पर बहुत अधिक निर्भर करती है। Wan 2.7 ने खुद मार्च रिलीज के बाद से ध्यान आकर्षित किया है—समीक्षाओं ने इसे संभावित रूप से 2026 का सबसे मजबूत AI वीडियो मॉडल कहा है, हालांकि हाइप के बारे में कुछ संदेह बना हुआ है।
Alibaba ने Wan 2.7 को अपने Qwen इकोसिस्टम के भीतर बनाया, और पहले के संस्करण (2.1 और 2.2) ओपन-सोर्स थे। क्या 2.7 उस पथ का अनुसरण करता है इसकी पुष्टि नहीं हुई है, लेकिन मॉडल अब Together AI के साथ Atlas Cloud और WaveSpeedAI सहित कई क्लाउड प्रदाताओं के माध्यम से सुलभ है।
इंटीग्रेशन विवरण
Together AI के प्लेटफॉर्म पर पहले से मौजूद डेवलपर्स के लिए, वीडियो जनरेशन जोड़ने के लिए किसी नए प्रमाणीकरण या बिलिंग सेटअप की आवश्यकता नहीं है। समान SDK टेक्स्ट, इमेज और वीडियो इंफरेंस में काम करते हैं। कंपनी डेवलपमेंट के लिए सर्वरलेस एंडपॉइंट्स प्रदान करती है जिसमें प्रोडक्शन वर्कलोड के लिए वॉल्यूम प्राइसिंग उपलब्ध है।
तकनीक का मूल्यांकन करने वाली टीमें API इंटीग्रेशन के लिए प्रतिबद्ध होने से पहले सीधे Together AI के प्लेग्राउंड में टेस्ट कर सकती हैं। पूर्ण डॉक्यूमेंटेशन में ऑडियो इनपुट, रिज़ॉल्यूशन कंट्रोल और एसिंक्रोनस वीडियो जनरेशन जॉब्स के लिए आवश्यक पोलिंग लूप सहित पैरामीटर शामिल हैं।
छवि स्रोत: Shutterstock- ai वीडियो जनरेशन
- together ai
- wan 2.7
- alibaba
- जनरेटिव ai








