ترندات

تنسنت تطلق نموذجًا مفتوح المصدر لتوليد الفيديو بالذكاء الاصطناعي

أعلنت شركة تنسنت Tencent الصينية إطلاق نموذجHunyuanVideo، وهو نموذج جديد مفتوح المصدر لتوليد الفيديو بالذكاء الاصطناعي يهدف إلى منافسة النماذج التجارية الحالية.

ويُعد هذا النموذج، الذي يضم أكثر من 13 مليار مَعلَمة، أكبر نموذج من نوعه للعامة حاليًا، وفقًا لما صرحت به الشركة.

وتشير الوثائق التقنية إلى أن أداء HunyuanVideo يتفوق على أنظمة مشابهة، مثل Runway Gen3 و Luma 1.6، بالإضافة إلى ثلاثة نماذج رئيسية لتوليد الفيديو مطوّرة في الصين. وأظهرت الاختبارات أن النموذج يقدّم نتائج مميزة خاصةً في جودة الحركة داخل الفيديو.

ويدعم نموذج HunyuanVideo مهام متعددة، ومنها توليد مقاطع الفيديو من الأوصاف النصية، وتحويل الصور الثابتة إلى مقاطع متحركة، وإنشاء شخصيات متحركة، وإضافة الصوت إلى محتوى الفيديو.

وطوّرت فرق تنسنت نهج تدريب متعدد المراحل للنموذج، يبدأ بالتدريب على الصور ذات الدقة المنخفضة (256 بكسلًا)، ثم ينتقل إلى تدريب مختلط على مقاييس أعلى. وأما المرحلة النهائية، فتتضمن تدريبات تدريجية على مقاطع الفيديو والصور، مع زيادة الدقة وطول الفيديو بنحو تصاعدي، مما يؤدي إلى تحسين جودة الإنتاج النهائي، وفقًا لمطوري النموذج.

وباختيارها جعل نموذجها HunyuanVideo مفتوح المصدر، تهدف تنسنت إلى تقليص الفجوة بين الأنظمة المملوكة للشركات والأنظمة المفتوحة. وقد أصدرت الشركة الشفرة المصدرية للنموذج عبر منصة GitHub، مع خطط لتطوير النموذج، وإضافة مزايا جديدة مستقبلًا.

ويضع هذا الإطلاق شركة تنسنت في منافسة مباشرة مع شركات رائدة، مثل Runway وشركة OpenAI بنموذجها Sora، بالإضافة إلى شركات صينية أخرى تعمل على تطوير نماذج مشابهة مثل KLING.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *