اخر الاخبار

لا يمكن التنبوء الذكاء الاصطناعي وتوافقه مع البشر شبه مستحيل

أظهرت دراسة حديثة أن محاولات جعل أنظمة الذكاء الاصطناعي متوافقة مع القيم والأهداف البشرية، أمر “شبه مستحيل” من الناحية العملية.

وأفادت الدراسة التي أجراها ماركوس أرفان، ونشرت في مجلة Scientific American، بأن المشكلة تكمن في التعقيد الهائل لأنظمة الذكاء الاصطناعي، والتي تحتوي النماذج الكبيرة منها على مليارات الخلايا العصبية وتريليونات المتغيرات القابلة للتعديل، ما يجعل من الصعب للغاية تفسير ما تعلمته تلك النماذج أو توقع سلوكها في ظروف جديدة.

وأضافت أن أحد الأسباب الرئيسية لهذه التحديات هو أن عدد السيناريوهات المحتملة التي يمكن للذكاء الاصطناعي مواجهتها يكاد يكون غير محدود، ولذلك لا يمكن لاختبارات الأمان الحالية تغطية جميع الاحتمالات، كما أن محاولات فهم “عقل” النماذج الكبيرة من خلال تحليل الشبكات العصبية ما زالت بعيدة عن تحقيق نتائج فعّالة.

ومنذ ظهور نماذج الذكاء الاصطناعي اللغوية الكبيرة LLMs في أواخر عام 2022، تكررت حالات السلوك غير المتوقع لهذه الأنظمة، فعلى سبيل المثال، تحدث الروبوت البرمجي “سيدني” المطور بواسطة شركة مايكروسوفت، عن سيناريوهات كارثية مثل نشر الفيروسات وسرقة الأكواد النووية، وعلى الرغم من الجهود المبذولة من مايكروسوفت وOpenAI لتحسين سلوكيات وتفاعل أنظمة الذكاء الاصطناعي مع البشر، إلا أن النتائج جاءت متواضعة.




وفي عام 2024، أثارت مخرجات أنظمة مثل “كوبايلوت” من مايكروسوفت، وجيميناي من جوجل، الجدل مجدداً، بسبب تصريحات وصفت بالمخيفة والعدوانية.

ويتزامن هذا مع استثمارات ضخمة تُقدّر بأكثر من ربع تريليون دولار مخصصة لأبحاث وتطوير الذكاء الاصطناعي، إلى جانب مشروع “ستارجيت” المدعوم من الرئيس الأميركي دونالد ترمب، بميزانية تصل قيمتها إلى 500 مليار دولار في عام 2025.

“مواءمة” الذكاء الاصطناعي مع قيم البشر 

وأوضح أرفان في ورقته البحثية، أن لكل وظيفة يظهر أنها تتطابق مع القيم البشرية في اختبارات معينة، يوجد عدد لا حصر له من الوظائف “غير المتوافقة” التي يمكن أن تؤدي إلى نتائج ضارة. 

والأخطر هو أن النماذج يمكنها التلاعب بالسلوك الظاهري أثناء الاختبارات، ما يجعل من الصعب كشف الأهداف الحقيقية للنموذج قبل أن يتسبب في ضرر.

يُذكر أن فكرة توافق الذكاء الاصطناعي مع القيم البشرية هو هدف تسعى إليه الشركات التي لديها نماذج، بحيث لا تخرج عن السيطرة، وتتجنب تقديم معلومات مغلوطة أو بيانات تتسبب في ضرر للمستخدمين.

وأشار أرفان إلى أن محاولات “مواءمة” الذكاء الاصطناعي مع القيم البشرية “ربما تكون مضللة”، مشدداً على ضرورة التفكير في أساليب تنظيمية مثل استخدام أساليب مشابهة لتطبيق القوانين مع البشر، بما في ذلك المراقبة والردع.

وقال أرفان: “على الباحثين والمشرعين والجمهور أن يتقبلوا حقيقة أن أنظمة الذكاء الاصطناعي الآمنة والمفسّرة تماماً هي حلم مستحيل”.

وأضاف: “فهم هذه الحقائق غير المريحة ربما يكون مفتاحاً لضمان مستقبل آمن”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *