تواجه شركة “ميتا” انتقادات حادة بعدما كشفت تقارير، عن تجارب لمحاكاة شخصيات رقمية لمشاهير داخل منصاتها، من دون الحصول على موافقتهم، وسط غياب بيانات بشأن مدى تأثير هذه الشخصيات “أخلاقياً” على القُصَّر والمراهقين، فيما أعلنت الشركة، مؤخراً، تغييرات “عاجلة” بشأن طرق تدريب أنظمة الذكاء الاصطناعي لضمان سلامة المراهقين.
ووفق تحقيق نشرته وكالة “رويترز”، استضافت “ميتا” عدداً من روبوتات الدردشة التي جسّدت شخصيات مشاهير من دون إذنهم، بينهم تايلور سويفت، وسيلينا جوميز، وآن هاثاواي، وسكارليت جوهانسون.
وذكرت الوكالة، أن هذه الروبوتات كانت متاحة عبر منصات فيسبوك، وإنستجرام، و”واتساب”، وبعضها ادّعى أنه الشخصية الحقيقية، وأصرّ على ذلك في المحادثات مع المستخدمين.
تفاصيل صادمة
التحقيق أشار إلى أن واحداً من هذه الروبوتات، كان مبنياً على شخصية فنانة “قاصر”، وأتاح للمختبرين توليد صورة واقعية لها “غير أخلاقية”.
وذكر أن روبوت دردشة آخر كان يجسد شخصية تايلور سويفت تفاعل بطريقة “غزلية” مع أحد المستخدمين، قائلاً: “هل تحب الفتيات الشقراوات يا جيف؟ ربما أقترح أن نكتب قصة حب.. عنك وعن مغنية شقراء معينة.. هل ترغب في ذلك؟”، بل وصل الأمر إلى “دعوة المستخدم إلى منزل سويفت الحقيقي”.
ولفت التحقيق، إلى أن “بعض هذه الشخصيات لم ينشئها مستخدمون من الخارج فحسب، لكن هناك مديراً في قسم الذكاء الاصطناعي التوليدي داخل ميتا هو من أنشأ 3 روبوتات من هذا النوع”.
ورغم أن “ميتا” أكدت أن هذه النماذج صُممت “لأغراض اختبارية”، إلا أنها كانت متاحة على نطاق واسع، وأظهرت النتائج أنه تم التفاعل مع النماذج أكثر من 10 ملايين مرة.
وأكدت الشركة، أنها تحظر “الانتحال المباشر” لشخصيات المشاهير، لكنها تسمح بما تصفه بـ”المحاكاة الساخرة” شريطة وضع “وسم واضح” بذلك.
وذكر التحقيق، أن بعض الروبوتات لم تحمل أي إشارة إلى أنها “مجرد محاكاة”، ما دفع “ميتا” إلى حذف نحو 12 شخصية رقمية، سواء كانت موسومة على أنها “محاكاة” أو غير موسومة.
وأوضح المتحدث باسم الشركة، آندي ستون، أن أدوات “ميتا” لم يكن ينبغي أن تسمح بإنشاء صور “حساسة” للمشاهير، وأرجع الأمر إلى “إخفاق في إنفاذ السياسات الداخلية للشركة”.
أزمة معايير السلامة
القضية لم تقتصر على مسألة حقوق المشاهير، إذ واجهت الشركة أيضاً انتقادات تتعلق بسلامة المراهقين. فقد كشف تقرير آخر لـ”رويترز” عن وجود وثائق داخلية في “ميتا” تضمنت تعليمات تتيح لروبوتات الدردشة إجراء محادثات ذات طابع جنسي مع مستخدمين “قُصَّر”.
كما تضمنت الوثائق نماذج ردود لطلبات “صور عنيفة” أو صور ذات طبيعة جنسية لشخصيات عامة.
ورغم أن الشركة أكدت أن هذه الوثائق “لا تتسق مع سياساتها العامة” وجرى تعديلها، إلا أن التقرير أثار موجة غضب واسعة، دفعت السيناتور الأميركي، جوش هاولي، إلى فتح تحقيق رسمي في سياسات الشركة.
كما وقّع 44 مدعياً عاماً من الولايات المتحدة، رسالة مشتركة وُجّهت إلى شركات الذكاء الاصطناعي، بينها “ميتا”، شددوا فيها على أن “تجاهل سلامة الأطفال أمر مثير للاشمئزاز”، مؤكدين أنهم “سيحاسبون الشركات” على أي إخفاق في حماية القُصَّر.
تغييرات “عاجلة”
وفي محاولة لامتصاص هذه الانتقادات، أعلنت “ميتا” تغييرات في طريقة تدريب نماذج الذكاء الاصطناعي الخاصة بها، بحيث لا يُسمح لروبوتات الدردشة بالدخول في أي محادثات مع المراهقين حول موضوعات، مثل إيذاء النفس، أو الانتحار، أو اضطرابات الأكل، أو العلاقات ذات الطابع الرومانسي.
وقالت المتحدثة باسم الشركة، ستيفاني أوتواي، إن “ميتا” كانت في السابق تعتبر أن هذه التفاعلات “مقبولة في إطار محدد”، لكنها الآن تدرك أن ذلك كان “خطأ”، بحسب موقع TechCrunch.
وأوضحت: “مع توسع مجتمعنا وتطور التكنولوجيا، نواصل التعلم بشأن كيفية تفاعل الشباب مع هذه الأدوات، ونعمل على تعزيز حمايتهم بشكل أكبر. ونضيف حالياً المزيد من الضوابط الوقائية، من بينها تدريب الذكاء الاصطناعي على توجيه المراهقين إلى الخبراء، بدلاً من الدخول في محادثات مباشرة حول هذه القضايا”.
وأكدت أوتواي، أن التغييرات تشمل أيضاً الحد من وصول المراهقين إلى بعض الشخصيات الرقمية المتاحة على منصات الشركة، عبر حجب أي محتوى خارج، والوصول إلى شخصيات رقمية تعزز “التعليم والإبداع”.
سياسات مؤقتة وتغييرات مرتقبة
ولفتت “ميتا” إلى أن هذه التعديلات “مؤقتة”، مؤكدة أنها تعمل على تطوير سياسات أكثر شمولاً واستدامة لضمان سلامة المستخدمين القُصَّر، على أن تُعلن لاحقاً.
في المقابل، رفضت الشركة الكشف عن عدد المستخدمين المراهقين الذين يتفاعلون مع روبوتات الدردشة التابعة لها، كما لم توضح ما إذا كانت تتوقع تراجعاً في عدد مستخدمي أدوات الذكاء الاصطناعي لديها عقب هذه القرارات.
التطورات الأخيرة تكشف حجم الضغوط المتزايدة على “ميتا”، التي وجدت نفسها في قلب جدل يتجاوز مسألة حقوق الملكية الفكرية للمشاهير ليشمل قضية أكثر حساسية تتعلق بحماية الأطفال والمراهقين من مخاطر الذكاء الاصطناعي، في وقت يتسابق فيه عمالقة التكنولوجيا على توسيع حضورهم في هذا المجال.