أعلنت شركة الذكاء الاصطناعي الصينية “كلينج Kling” إطلاق نموذج “Video O1” الذي تصفه بأنه “أول نموذج موحّد متعدد الوسائط للفيديو في العالم”، إذ يجمع بين قدرات إنتاج الفيديو وتحريره ضمن منصة واحدة دون الحاجة إلى أدوات منفصلة.

نموذج واحد لإنتاج الفيديو وتعديله

يوفر Video O1 إمكانات توليد مقاطع فيديو تتراوح مدتها بين 3 و 10 ثوانٍ بالاعتماد على الأوامر النصية أو الصور المرجعية، كما يتيح تحرير اللقطات الأصلية مثل تبديل الشخصيات، وتغيير حالة الطقس، وتعديل الأسلوب البصري والألوان من خلال أمر واحد فقط.

ويسمح النظام للمستخدم بإضافة عناصر جديدة وتغيير الخلفية وتعديل الشكل الفني بشكل متزامن داخل السياق نفسه.

ويعتمد النموذج على معالجة متزامنة لعدة أنواع من المدخلات، تصل إلى سبعة عناصر تشمل الصور ومقاطع الفيديو والنصوص. ويمكن للمستخدم تعديل الفيديو عبر أوامر بسيطة، مثل “إزالة المارة” أو “تحويل ضوء النهار إلى الغسق”، دون الحاجة إلى أي عمل يدوي.

ويتيح النموذج رفع شخصيات أو أدوات أو مشاهد لاستخدامها في سياقات مختلفة، مع قدرة على الحفاظ على اتساق العناصر عبر اللقطات المتعددة – سواء كان شخصًا أو منتجًا أو نمط تصوير.

تفوق مزعوم على جوجل و Runway

أجرت Kling AI مقارنات داخلية بين Video O1 وكلٍّ من نموذجي Google Veo 3.1 و Runway Aleph. وأظهرت النتائج – بحسب الشركة – تفوقًا واضحًا في مهام إنشاء الفيديو بناءً على صورة مرجعية، متجاوزًا أداء خاصية “Ingredients to Video” لدى جوجل.

ووفقًا للشركة أيضًا، فقد فضّل المقيّمون Video O1 على Runway Aleph في مهام تحويل الفيديو بنسبة قدرها 230%، لكن هذه الأرقام ما زالت مستندة إلى اختبارات داخلية ولم تتحقق منها جهات مستقلة.

منافسة متسارعة

يتوفر نموذج O1 حاليًا من خلال منصة Kling عبر الويب. ويأتي إطلاقه في سوق يشهد منافسة شديدة، إذ كشفت Runway بالتزامن عن نموذجها الجديد Gen4.5، في حين تواصل شركات كبرى مثل جوجل و OpenAI و Midjourney تحسين نماذجها الخاصة، وتواصل شركات صينية أخرى مثل Hailuo و Vidu تطوير حلول مماثلة تركز على الكفاءة وتقليل التكاليف.

وبينما يُظهر نموذج Video O1 خطوة متقدمة في إدماج مهام صناعة الفيديو في نموذج واحد، فإن معركة التفوق في تقنيات الفيديو التوليدية ما زالت في بدايتها، وسط سباق عالمي يتصاعد بوتيرة غير مسبوقة.

شاركها.