اتهمت شركة “أنثروبيك” Anthropic، مطورة نموذج الذكاء الاصطناعي “كلود” Claud، في منشور على مدونة، الاثنين، ثلاث شركات صينية استغلت البرنامج للحصول دون سند قانوني على قدرات لتحسين نماذجها الخاصة، ودعت إلى فرض ضوابط على تصدير الرقائق الإلكترونية.
جاء ذلك عقب إفصاح مماثل من “أوبن إيه آي” OpenAI هذا الشهر. وأشارت مذكرة اطلعت عليها وكالة “رويترز” إلى أن OpenAI نبّهت المشرعين الأميركيين إلى أن شركة “ديب سيك” DeepSeek الصينية الناشئة في مجال الذكاء الاصطناعي تستهدف أوبن إيه آي المطورة لبرنامج “تشات جي بي تي” ChatGPT وشركات ذكاء اصطناعي رائدة في الولايات المتحدة لتقليد نماذجها واستخدامها في تدريبها الخاص.
وقالت أنثروبيك إن شركات “ديب سيك”، و”مونشوت”، و”ميني ماكس”، تفاعلت أكثر من 16 مليون مرة مع برنامج “كلود” باستخدام نحو 24 ألف حساب وهمي، في انتهاك لشروط الخدمة للشركة وقيود الوصول الإقليمية.
وأوضحت أنثروبيك أن هذه الشركات استخدمت تقنية تُعرف باسم “التقطير”، والتي تتضمن تقييم نموذج ذكاء اصطناعي أقدم وأكثر رسوخاً وقوة جودة الإجابات التي يقدمها نموذج أحدث، مما يؤدي فعلياً إلى نقل معارف النموذج الأقدم.
وأضافت الشركة: “تتزايد كثافة هذه الحملات وتعقيدها. والفرصة المتاحة للتحرك محدودة، ويتجاوز التهديد أي شركة أو منطقة بعينها”.
وحذّرت أنثروبيك من أن النماذج المأخوذة بتقنية “التقطير” غير المشروعة تفتقر إلى الضمانات اللازمة، ما يُشكل مخاطر جسيمة على الأمن القومي. وإذا ما تسنى نشر هذه النماذج كمصدر مفتوح، فإن المخاطر تتضاعف مع انتشار القدرات بحرية خارج سيطرة أي حكومة.
وأكدت أنثروبيك، التي جمعت 30 مليار دولار في أحدث جولة تمويل لها، وتبلغ قيمتها السوقية حالياً 380 مليار دولار، أن هجمات التقطير تقدم دعماً لقضية فرض ضوابط على الصادرات، إذ يؤدي تقييد الوصول إلى الرقائق إلى إضعاف قدرات التدريب المباشر للنماذج، والحد من نطاق نشاط التقطير غير المشروع.
وأفادت أنثروبيك بأن عملية ديب سيك استهدفت قدرات الاستدلال في مختلف المهام، وإنشاء بدائل آمنة خالية من الرقابة، بينما ركزت عملية مونشوت على الاستدلال الآلي واستخدام الأدوات، بالإضافة إلى البرمجة وتحليل البيانات.
واستهدفت ميني ماكس البرمجة الآلية واستخدام الأدوات والتنسيق.
