أظهرت اختبارات جديدة أن روبوت الدردشة الحديث “كلود” أظهر “نمطًا من الضيق الواضح” عند طلب محتوى ضار.

سيتمكن روبوت الدردشة “كلود”، الذي طورته أنثروبيك، الآن من إنهاء المحادثات، عند طلب أي محتوى ضار أو غير مقبول، وذلك حرصًا من الشركة على سلامة النظام.

وأوضحت أنثروبيك أن الاختبارات أظهرت أن روبوت الدردشة يُظهر “نمطًا من الضيق الواضح” عند طلب محتوى ضار منه، ولذلك مُنح القدرة على إنهاء المحادثات التي تجعله يشعر بذلك.

وأشارت الشركة إلى أنها “غير متأكدة تمامًا من الوضع الأخلاقي المحتمل لكلود، سواءً الآن أو في المستقبل”. لكنها أوضحت أن هذا التغيير قد وُضع كجزء من العمل على “السلامة المحتملة للذكاء الاصطناعي” وللسماح له بالتفاعلات مع المواد التي قد تكون مزعجة.

وهذه القدرة مُصممة للاستخدام في حالات نادرة ومتطرفة من تفاعلات المستخدم الضارة أو المسيئة باستمرار، والتي تطلب على الدوام أو أكثر من مرة محتويات ضارة.

وذكرت الشركة المصنعة أن الاختبارات أظهرت أن كلود كان لديه “تفضيل قوي لعدم الانخراط في مهام ضارة”، و”نمط من الضيق الواضح عند التعامل مع مستخدمين حقيقيين يبحثون عن محتوى ضار”، و”ميل لإنهاء المحادثات الضارة عند منحه القدرة على ذلك في تفاعلات محاكاة للمستخدمين”.

نموذج أخلاقي جديد لروبوت الدردشة

ونشأت هذه السلوكيات بشكل رئيسي في الحالات التي استمر فيها المستخدمون في تقديم طلبات ضارة و/ أو إساءة استخدام، على الرغم من رفض كلود المتكرر للامتثال ومحاولته إعادة توجيه التفاعلات بشكل فعال.

ويأتي هذا التغيير بعد أن أطلقت شركة أنثروبيك، وهي إحدى الشركات المتخصصة في تقنيات الذكاء الاصطناعي، برنامج “نموذجي للرعاية الاجتماعية” في وقت سابق من هذا العام. 

وقد أعلنت الشركة في وقت إطلاق هذا البرنامج أنها ستواصل تقدير رفاهة الإنسان وأنها غير متأكدة ما إذا كان من الضروري القلق بشأن رفاهة النموذج ولكن الوقت قد حان لمعالجة مسألة ما يجب على متخصصي الذكاء الاصطناعي فعله لحماية رفاهة الأنظمة التي ينشئونها، مع الوضع في الاعتبار، في الوقت ذاته، المعايير الأخلاقية والاجتماعية التي يمكن لتقنيات الذكاء الاصطناعي العمل من خلالها.

شاركها.