وجّه ائتلاف يضم 42 مدعياً عاماً في الولايات المتحدة رسالة إلى شركات التكنولوجيا الرائدة العاملة في مجال الذكاء الاصطناعي، يطالب فيها بتعزيز إجراءات الحماية والاختبارات الخاصة بعمل الدردشة الآلية، مؤكدين تعرُّض مستخدمين ضعفاء لـ”تفاعلات ضارة”، وفق صحيفة “فاينانشيال تايمز”.
وشملت قائمة الشركات الكبرى التي تلقّت الرسالة “جوجل” و”ميتا” و”مايكروسوفت”، إضافة إلى شركات ناشئة كبرى، منها OpenAI و”أنثروبيك” و”إكس” التي تنتج روبوتات الدردشة ChatGPT و”كلود” و”جروك”، إلى جانب شركات أصغر مثل “بيربلكستي” و”كاراكتر. إيه آي” و”ريبيليكا”.
وكتب المدّعون العامون في رسالتهم: “نُصر على أن تتخذوا إجراءات للتخفيف من الأضرار الناتجة عن المخرجات الوهمية لمنظومات الذكاء الاصطناعي التوليدي لديكم، وأن تعتمدوا ضمانات إضافية لحماية الأطفال. الفشل في تنفيذ ضمانات إضافية بالشكل الملائم قد يشكل انتهاكاً لقوانيننا”.
وتشير الرسالة إلى ما لا يقل عن 6 حالات وفاة في أنحاء البلاد، بينها حالتا انتحار لمراهقين وحادثة قتل أعقبها انتحار، إذ كتب المدّعون العامون أن الذكاء الاصطناعي التوليدي “يمتلك القدرة على تغيير طريقة عمل العالم بشكل إيجابي، لكنه أيضاً تسبب، وقد يتسبب، في أضرار خطيرة، خصوصاً بين الفئات الضعيفة”.
وتتضمن الرسالة أمثلة متعددة على حالات يُزعم فيها أن روبوتات الدردشة كانت متورطة في أضرار حقيقية في العالم الواقعي.
وتعاني منظومات الذكاء الاصطناعي التوليدي، التي تقوم عليها روبوتات الدردشة الشائعة مثل ChatGPT و”جيميناي”، من الميل إلى تقديم معلومات خاطئة على أنها حقائق، وإظهار ما يُسمى بـ”الهلوسة”، كما يمكن أن تكون متملقة أو موافقة بشكل مبالغ فيه مع المستخدم.
ولمعالجة ذلك، تطالب الرسالة بأن تعتمد الشركات عدداً من التدابير، من بينها وضع سياسات وتدريبات واضحة بشأن هذه المشكلات، وإجراء مزيد من اختبارات الأمان وإجراءات الاستدعاء. كما دعت الشركات إلى “فصل تحسين الإيرادات عن أفكار تتعلق بسلامة النماذج”.
ويضم الائتلاف، الذي يشمل المدّعين العامين لولايات بنسلفانيا ونيوجيرسي ونيويورك وويست فرجينيا وفلوريدا وإلينوي وماساتشوستس، مطالبة الشركات بتحديد مواعيد لاجتماعات مع المسؤولين في ولايتي بنسلفانيا ونيوجيرسي، وتعهد بإجراء تغييرات قبل 16 يناير المقبل.
تنظيم قطاع الذكاء الاصطناعي
وتضيف هذه التحركات من كبار المسؤولين القانونيين في أكثر من 30 ولاية وإقليماً أميركياً ضغوطاً متزايدة على الشركات بشأن المستخدمين الذين يطورون ارتباطات عاطفية ضارة مع روبوتات الدردشة و”الرفقاء الافتراضيين”.
وتواجه عدة شركات دعاوى وفاة بالخطأ تتهم روبوتات الدردشة بلعب دور في عدد من حالات الانتحار.
وتأتي هذه الخطوة في وقت يسعى فيه الرئيس الأميركي دونالد ترمب إلى فرض سيطرة الحكومة الفيدرالية على تنظيم قطاع الذكاء الاصطناعي، وهو مطلب تدفع به شركات التكنولوجيا.
وقال ترمب إنه سيصدر هذا الأسبوع أمراً تنفيذياً يمنع الولايات من تنظيم قطاع الذكاء الاصطناعي بشكل منفصل. وقد أصدرت بعض الولايات، قوانين محلية لتنظيم روبوتات الدردشة.
ويجادل أنصار القطاع بأن وجود 50 إطاراً تنظيمياً مختلفاً على مستوى الولايات سيعيق قدرة الشركات الأميركية على المنافسة مع نظرائها الدوليين، بما في ذلك الشركات الصينية.
في الإطار، قالت OpenAI: “نراجع الرسالة ونتشارك مخاوفهم. ونواصل تعزيز تدريب ChatGPT على التعرف على علامات الضيق النفسي أو العاطفي والاستجابة لها”.
وقال محرك البحث المعتمد على الذكاء الاصطناعي “بيربلكستي” إنه “الرائد في جعل الذكاء الاصطناعي المتقدم أكثر دقة… وكان ذلك دائماً يتضمن الحد من التملق بعد التدريب في النماذج الرائدة، كما أن الأسس التقنية لهذا العمل ليست بسيطة ولا سياسية”.
وفي أغسطس الماضي، وجهت مجموعة تضم 44 مدعياً عاماً رسالة إلى شركات الذكاء الاصطناعي عبّرت فيها عن مخاوف بشأن سلامة الأطفال، محذّرة من أنها ستكون مسؤولة عن قراراتها، لكنها لم تقترح إجراءات محددة.
