تتخلى شركة أنثروبيك عن التعهد المحوري في سياستها الرائدة للسلامة، والذي طالما قدّمته بوصفه الدليل الأبرز على التزامها بعدم الانجرار خلف ضغوط السوق في سباق تطوير الذكاء الاصطناعي المتقدم.

القرار الذي كشف عنه كبير العلماء في “أنثروبيك” جاريد كابلان، في مقابلة حصرية مع مجلة TIME الأميركية، يأتي في لحظة تتزامن مع تصعيد غير مسبوق في التوتر بينها وبين وزارة الحرب الأميركية (البنتاجون) بشأن استخدام نموذجها Claude داخل الأنظمة العسكرية المصنفة.

سياسة التحفظ

في عام 2023، التزمت “أنثروبيك” بعدم تدريب أي نظام ذكاء اصطناعي ما لم تتمكن مسبقاً من ضمان كفاية تدابير السلامة لديها. وعلى مدى سنوات، روّج قادتها لذلك التعهد – الركيزة الأساسية في “سياسة التوسع المسؤول” (RSP) – باعتباره دليلاً على أنها شركة مسؤولة تقاوم ضغوط السوق للتسارع في تطوير تكنولوجيا قد تكون خطرة.

غير أن الشركة قررت في الأشهر الأخيرة إجراء تعديل جذري على هذه السياسة، شمل إلغاء التعهد بعدم إطلاق نماذج ذكاء اصطناعي إذا لم تتمكن مسبقاً من ضمان وجود إجراءات كافية للحد من المخاطر.

وقال كابلان: “شعرنا أن توقفنا عن تدريب نماذج الذكاء الاصطناعي لن يفيد أحداً”. وأضاف: “لم نرَ، في ظل التقدم السريع للذكاء الاصطناعي، أن من المنطقي تقديم التزامات أحادية الجانب… بينما يمضي المنافسون قدماً بسرعة”.

وتتضمن النسخة الجديدة من سياسة RSP، التي اطلعت عليها مجلة TIME، تعهدات بزيادة الشفافية بشأن مخاطر السلامة المرتبطة بالذكاء الاصطناعي، بما في ذلك الإفصاح بشكل أوسع عن أداء نماذج “أنثروبيك” في اختبارات السلامة. كما تلتزم الشركة بمضاهاة جهود السلامة لدى المنافسين أو تجاوزها، وتتعهد بـ”تأجيل” تطوير تقنياتها إذا اعتبر قادتها أنها تتصدر سباق الذكاء الاصطناعي وأن مخاطر وقوع كارثة كبيرة.

ومع ذلك، فإن التعديل يجعل “أنثروبيك” أقل تقيداً بسياساتها السابقة، التي كانت تحظر بشكل قاطع تدريب نماذج تتجاوز مستوى معيناً ما لم تكن تدابير السلامة الملائمة مطبقة سلفاً.

وأكدت الشركة أنها ستسعى للحفاظ على الحوافز الداخلية التي كانت تدفعها لتطوير أدوات تخفيف المخاطر بسرعة، عبر نشر ما تسميه خرائط طريق أمان النماذج المتقدمة بصورة دورية، إضافة إلى إصدار تقارير مخاطر كل ثلاثة إلى ستة أشهر، تشرح فيها كيفية تداخل القدرات الجديدة مع سيناريوهات التهديد وإجراءات الحد من المخاطر، مع تقييم شامل لمستوى الخطورة.

وترى إدارة الشركة أن هذا النهج سيخلق آلية ضغط داخلية لضمان إعطاء الأولوية لأبحاث السلامة، رغم الضغوط التنافسية والتجارية.

ظروف تغيير الأولويات

وهذا التحول لم يأتِ في فراغ، فحين أطلقت أنثروبيك سياستها في 2023، كانت تأمل أن تحفّز المنافسين على تبنّي التزامات مماثلة، وأن تتحول مبادئها إلى نموذج يُحتذى به في تشريعات وطنية أو حتى اتفاقيات دولية لتنظيم الذكاء الاصطناعي.

غير أن تلك التوقعات لم تتحقق، فحتى الآن، لم يصدر قانون اتحادي شامل ينظم الذكاء الاصطناعي في الولايات المتحدة، كما تراجعت احتمالات التوصل إلى إطار حوكمة عالمي ملزم، في وقت اشتدت فيه المنافسة بين الشركات والدول على حد سواء.

وبالتوازي، واجهت الشركة تعقيدات علمية في تقييم المخاطر، إذ أعلنت في 2025 أنها لا تستطيع استبعاد احتمال أن تسهم النماذج القوية في تسهيل هجوم إرهابي بيولوجي، لكنها في الوقت ذاته لم تمتلك أدلة علمية حاسمة تثبت أن الخطر وشيك، ما جعل الخط الأحمر الذي تخيلته سابقاً يبدو أقرب إلى تدرج ضبابي يصعب تحديده بدقة.

وكانت الشركة تعيش موجة نجاح تقني وتجاري، فقد حققت نماذج “كلود” Claud، ولا سيما أداة البرمجة Claude Code، انتشاراً واسعاً بين المستخدمين، وتمكنت في فبراير من جمع استثمارات جديدة ضخمة رفعت تقييمها إلى مئات المليارات من الدولارات، مع نمو سنوي متسارع في الإيرادات.

ويرى مستثمرون أن نموذجها القائم على بيع الخدمات مباشرة للشركات يتمتع بمصداقية أكبر مقارنة باستراتيجية التركيز على قاعدة مستخدمين استهلاكية واسعة، كما هو الحال لدى OpenAI.

موقف صعب مع البنتاجون

إلا أن هذا الزخم تزامن مع تصعيد حاد في علاقتها مع وزارة الحرب الأميركية، فقد ذكر موقع “أكسيوس” أن وزير الحرب بيت هيجسيث منح الرئيس التنفيذي للشركة داريو أمودي، مهلة تنتهي مساء الجمعة للموافقة على منح الجيش وصولاً غير مقيّد إلى نموذج “كلود”، وإلا ستصطر الشركة لمواجهة إجراءات قد تصل إلى تصنيف الشركة على أنها خطر على سلاسل التوريد الدفاعية.

وخلال اجتماع وُصف بـ”المتوتر”، أبلغ هيجسيث الرئيس التنفيذي لشركة الذكاء الاصطناعي أن البنتاجون قد يلجأ إلى قانون الإنتاج الدفاعي لإجبار الشركة على تكييف نموذجها مع احتياجات الجيش الأميركي، أو يقطع العلاقات معها ويباشر إجراءات رسمية ضدها.

وبحسب التقارير، طلبت وزارة الحرب الأميركية من شركتي “بوينج” و”لوكهيد مارتن” تقييم مدى اعتمادهما على نماذج “كلود”، في خطوة تُعد تمهيداً لاحتمال إدراج أنثروبيك ضمن قائمة المخاطر في سلسلة الإمداد الدفاعية، وهو إجراء يُستخدم عادة بحق شركات من دول تُصنّف خصوماً استراتيجيين.

يُذكر أن “كلود” هو النموذج الوحيد العامل حالياً داخل الأنظمة العسكرية المصنفة، وقد استُخدم في عمليات حساسة عبر شراكات دفاعية.

ويتمثل جوهر الخلاف في إصرار أنثروبيك على الإبقاء على قيود تمنع استخدام نموذجها في المراقبة الجماعية للمواطنين، أو في تطوير أنظمة أسلحة تعمل دون تدخل بشري، في حين ترى وزارة الحرب الأميركية أن اشتراط موافقة الشركة على كل حالة استخدام “أمر غير عملي”، وأن الجيش يجب أن يتمتع بمرونة كاملة في جميع الأغراض المشروعة.

وهكذا تجد أنثروبيك نفسها في مفترق طرق، فمن جهة، أعادت صياغة سياستها للأمان لتواكب سباقاً عالمياً متسارعاً، متخلية عن تعهد كان يُنظر إليه باعتباره صمام أمان أخلاقياً، ومن جهة أخرى، تواجه ضغوطاً سياسية وعسكرية مباشرة لرفع قيود الاستخدام عن تقنياتها داخل البنية التحتية الدفاعية.

وبين هذين المسارين، يتبلور سؤال أوسع بشأن إمكانية الحفاظ على ضوابط أمان صارمة في بيئة تنافسية محتدمة، دون أن يتحول المطوّر الأكثر تحفظاً إلى الطرف الخاسر في سباق التفوق التقني.

شاركها.