مع ازدياد انتشار أدوات الذكاء الاصطناعي واعتماد العديد من الأشخاص عليها في أعمالهم اليومية، أصبح من الضروري فهم كيفية استخدام هذه الأدوات، وكيف يمكن التحقق من المحتوى الذي تنتجه.

فقد واجهت شركات ومؤسسات عدة مشكلات في هذا السياق؛ إذ اضطرت شركة Deloitte إلى دفع أموال للحكومة الأسترالية بعد اكتشاف أخطاء ولّدها الذكاء الاصطناعي في تقرير رسمي. كما خضع محامٍ في ولاية فكتوريا الأسترالية لإجراءات تأديبية بعد تضمين استشهادات قانونية غير صحيحة ولّدتها إحدى أدوات الذكاء الاصطناعي. وحتى الجامعات أصبحت قلقة من اعتماد الطلاب على الذكاء الاصطناعي.

ولحل هذه المشكلات، ظهرت أدوات “كشف المحتوى المولّد بالذكاء الاصطناعي” لمحاولة التمييز بين المحتوى البشري وما تنتجه الآلات. لكن، كيف تعمل هذه الأدوات؟ وهل يمكن الوثوق بنتائجها؟

أولًا: كيف تعمل أدوات الكشف عن المحتوى المولّد بالذكاء الاصطناعي؟

تختلف طرق الكشف باختلاف نوع المحتوى، وتنقسم هذه الطرق إلى الأقسام التالية:

1 كشف النصوص

تعتمد الأدوات المتخصصة بكشف النصوص المولّدة بالذكاء الاصطناعي على البحث عن أنماط كتابية ترتبط عادة بالنصوص المولّدة، مثل:

  • الجُمل المتكررة.
  • أسلوب الكتابة الموحد.
  • الكلمات التي يستخدمها الذكاء الاصطناعي بنحو شائع.

لكن مع تطور نماذج الذكاء الاصطناعي، أصبحت كتابتها قريبة جدًا من الأسلوب البشري؛ مما يجعل أدوات الكشف أقل موثوقية بمرور الوقت.

2 كشف الصور المولّدة بالذكاء الاصطناعي

تعتمد بعض الأدوات على تحليل البيانات الوصفية (metadata) التي تضيفها بعض النماذج تلقائيًا إلى الصور التي تولّدها. وتقارن أدوات أخرى الصور بقاعدة بيانات ضخمة للصور المزيفة أو المولدة آليًا.

3 العلامات المائية الخفية

بدأ مطورو أدوات الذكاء الاصطناعي بإضافة علامات خفية غير مرئية للمستخدمين، يمكن اكتشافها لاحقًا باستخدام أدوات متخصصة. غير أن هذه الأدوات ما تزال غير متاحة للعامة، ولا تعمل إلا ضمن أنظمة الشركة نفسها، على سبيل المثال: إذا استخدمت أحد نماذج توليد الصور من جوجل مثل: Imagen، فإن أداة SynthID من جوجل لديها القدرة على اكتشاف تلك الصور. لكن هذه الأداة غير متاحة للعامة بعد، ولا تعمل مع محتوى مُنشأ باستخدام أدوات أخرى مثل ChatGPT.

ثانيًا: ما مدى فعالية أدوات الكشف عن المحتوى المولّد بالذكاء الاصطناعي؟

تتفاوت الفعالية بناءً على عدة عوامل:

  • الأداة المستخدمة لإنتاج المحتوى.
  • مدى تعديل المحتوى بعد توليده.
  • جودة البيانات التي دُرّبت عليها أدوات الكشف.

كما يمكن بسهولة خداع أدوات الكشف عبر تغيير جودة الصورة، أو إضافة ضوضاء إلى المقاطع الصوتية المولّدة بالذكاء الاصطناعي، أو تعديل النصوص المولدة.

بالإضافة إلى ذلك، تعاني أغلب أدوات الكشف مشكلة غياب الشفافية، فهي تقدّم “نسبة ثقة” دون توضيح سبب الحكم بأن المحتوى مولّد آليًا.

وتُظهر الاختبارات أن أداء الأدوات ينخفض بنحو كبير عند اختبارها على محتوى جديد لم تُدرَّب عليه سابقًا، مثل أدوات كشف التزييف العميق (deepfakes) التي تفشل كثيرًا مع المقاطع الحديثة.

من ناحية أخرى، قد تنتج العديد من المشكلات بسبب أخطاء أدوات الكشف، مثل: اتهام طالب بالغش مع أنه كتب بحثه بنفسه، أو افتراض أن رسالة إلكترونية صادرة عن شخص حقيقي لكنها مولدة بالذكاء الاصطناعي. وهذه الأخطاء تُظهر أن أدوات الكشف ما تزال بعيدة عن الاعتمادية في الوقت الحالي.

شاركها.