رفضت شركة Anthropic (أنثروبيك)، الخميس، أحدث عرض من البنتاجون بشأن الشروط التي سعت الشركة إلى فرضها على استخدام الجيش لبرنامجها للذكاء الاصطناعي Claude (كلود)، وهي مواجهة عرّضت أعمالها الدفاعية مع الحكومة للخطر.
وقال الرئيس التنفيذي لشركة Anthropic داريو أمودي، في بيان: “اختيار المتعاقدين الأكثر انسجاماً مع رؤيتهم هو من صلاحيات الوزارة. ولكن نظراً للقيمة الكبيرة التي توفرها تقنية Anthropic لقواتنا المسلحة، نأمل أن يعيدوا النظر. وتفضيلنا القوي هو الاستمرار في خدمة الوزارة ومقاتلينا، مع الإبقاء على الضمانتين اللتين نطلبهما”.
وأضاف أمودي: “إذا قررت الوزارة الاستغناء عن Anthropic، فسنعمل على تمكين انتقال سلس إلى مزود آخر، بما يتجنب أي تعطيل للتخطيط العسكري الجاري أو العمليات أو غيرها من المهام الحرجة. وستظل نماذجنا متاحة بالشروط الواسعة التي اقترحناها طوال المدة المطلوبة”.
وتشمل الضمانات التي تطلبها Anthropic حظر الشركة للمراقبة الجماعية للأميركيين، وحظر استخدام تقنيتها في أسلحة مستقلة بالكامل، فيما رفض البنتاجون تلك المطالب ومنح الشركة مهلة حتى، الجمعة، لقبول شروط الحكومة أو إعلانها خطراً على سلسلة التوريد، وهي خطوة قد تحظر عليها العمل مع متعاقدين دفاعيين آخرين.
المراقبة الداخلية الجماعية
وذكر أمودي في بيانه: “نحن ندعم استخدام الذكاء الاصطناعي في مهام الاستخبارات الخارجية ومكافحة التجسس المشروعة. لكن استخدام هذه الأنظمة في المراقبة الداخلية الجماعية يتعارض مع القيم الديمقراطية. فالمراقبة الجماعية المدفوعة بالذكاء الاصطناعي تنطوي على مخاطر جسيمة وجديدة على حرياتنا الأساسية. وإذا كانت مثل هذه المراقبة قانونية حالياً، فذلك فقط لأن القانون لم يلحق بعد بالقدرات المتنامية سريعاً للذكاء الاصطناعي”.
وتابع: “على سبيل المثال، يسمح القانون الحالي للحكومة بشراء سجلات تفصيلية عن تحركات الأميركيين وتصفحهم للويب وعلاقاتهم من مصادر عامة من دون الحصول على مذكرة قضائية، وهي ممارسة أقرّ مجتمع الاستخبارات بأنها تثير مخاوف تتعلق بالخصوصية، وأثارت معارضة حزبية واسعة في الكونجرس. ويجعل الذكاء الاصطناعي القوي من الممكن تجميع هذه البيانات المتفرقة، التي تبدو غير مؤذية على نحو فردي، في صورة شاملة عن حياة أي شخص، آلياً، وعلى نطاق واسع”.
الأسلحة ذاتية التشغيل بالكامل
وأشار الرئيس التنفيذي لشركة Anthropic إلى أن “الأسلحة ذاتية التشغيل جزئياً، مثل تلك المستخدمة اليوم في أوكرانيا، ضرورية للدفاع عن الديمقراطية. وحتى الأسلحة ذاتية التشغيل بالكامل (التي تُخرج البشر من الحلقة تماماً وتؤتمت اختيار الأهداف والاشتباك معها) قد تُثبت أهميتها لأمننا القومي. لكن أنظمة الذكاء الاصطناعي الرائدة اليوم ليست موثوقة بما يكفي لتشغيل أسلحة ذاتية التشغيل بالكامل. ولن نقدّم عن علم منتجاً يعرّض المقاتلين الأميركيين والمدنيين للخطر”.
وواصل: “عرضنا العمل مباشرة مع وزارة الحرب على البحث والتطوير لتحسين موثوقية هذه الأنظمة، لكنهم لم يقبلوا هذا العرض. إضافة إلى ذلك، ومن دون إشراف مناسب، لا يمكن الاعتماد على الأسلحة ذاتية التشغيل بالكامل لممارسة الحكم السليم الذي يُظهره جنودنا المحترفون عاليّو التدريب يومياً. فهي تحتاج إلى نشرها مع ضوابط حماية مناسبة، وهي غير موجودة اليوم. حسب علمنا، لم يمثل هذان الاستثناءان عائقاً أمام تسريع اعتماد نماذجنا واستخدامها داخل قواتنا المسلحة حتى الآن”.
واستدرك أمودي: “صرحت وزارة الحرب بأنها لن تتعاقد إلا مع شركات ذكاء اصطناعي توافق على أي استخدام قانوني، وتزيل الضمانات في الحالتين المذكورتين أعلاه. وهددت بإخراجنا من أنظمتها إذا حافظنا على هذه الضمانات، كما هددت بتصنيفنا كـ ‘خطر على سلسلة التوريد’، وهو وسم مخصص لخصوم الولايات المتحدة، ولم يطبق من قبل على شركة أميركية، وبالاستناد إلى قانون الإنتاج الدفاعي لإجبارنا على إزالة هذه الضمانات. وهذان التهديدان الأخيران متناقضان بطبيعتهما: أحدهما يصنفنا خطراً أمنياً، والآخر يصنف Claude بوصفه ضرورياً للأمن القومي. ومع ذلك، فإن هذه التهديدات لا تغير موقفنا، إذ لا يمكننا بضمير مرتاح الموافقة على طلبهم”.
البنتاجون يستدعي Anthropic
والثلاثاء، قالت مصادر إن وزير الحرب الأميركي، بيت هيجسيث، استدعى داريو أمودي، الرئيس التنفيذي لشركة Anthropic إلى اجتماع في مقر “البنتاجون”، لمناقشة شروط استخدام الجيش نموذجها Claude (كلود).
ونقل موقع “أكسيوس” الإخباري، عن مسؤول دفاعي رفيع المستوى، قوله إن “Anthropic تدرك أن هذا ليس اجتماعاً للتعارف، وليس اجتماعاً ودياً، بل هو اجتماع حاسم”.
وAnthropic للذكاء الاصطناعي هي الشركة المسؤولة عن تطوير نموذج Claude، الذي أفادت تقارير إعلامية بأن الجيش الأميركي استعان به خلال اعتقال الرئيس الفنزويلي نيكولاس مادورو.
وذكر “أكسيوس” أن البنتاجون غاضب من Anthropic لرفض الشركة رفع كل القيود المفروضة على استخدام Claude في أعمال الدفاع والاستخبارات، لكن الوزارة لا ترغب أيضاً في فقدان حق الوصول إلى نموذج الذكاء الاصطناعي.
ونقل الموقع الإلكتروني عن متحدث باسم الشركة قوله: “نجري محادثات مثمرة، وبحسن نية”، بينما قال مسؤولون في وزارة الحرب إن “المفاوضات لم تُحرز أي تقدم وعلى، وشك الانهيار”.
وذكر أكسيوس أن Anthropic مستعدة لتخفيف القيود المفروضة حالياً على استخدام نموذجها للذكاء الاصطناعي، لكنها تسعى إلى حجب مجالين، هما: عمليات المراقبة الجماعية للأميركيين، وتطوير أسلحة تعمل دون تدخل بشري.
Claude والبنتاجون
وتجري Anthropic، التي تطرح نفسها بوصفها رائدة في مجال الذكاء الاصطناعي الآمن، مفاوضات مع “البنتاجون” بشأن شروط الاستخدام، وتسعى على وجه الخصوص لضمان عدم استخدام تقنيتها في المراقبة الجماعية للأميركيين، أو تشغيل أسلحة مستقلة بالكامل.
يأتي هذا في ظل توجه عام لدى وزارة الدفاع الأميركية لإدماج الذكاء الاصطناعي بشكل سريع في العمليات العسكرية.
وتعد Anthropic واحدة من شركات عديدة تطور نماذج الذكاء الاصطناعي التي تعمل مع البنتاجون في مناح مختلفة.
وترتبط كل من OpenAI وxAI بالفعل بعقود مع الوزارة تتيح لموظفيها الوصول لنماذجها الحديثة دون قيود.
وتجري أيضاً مناقشات بين Anthropic ووزارة الحرب حول احتمال تخفيف القيود المفروضة على “كلود”.
