مع تزايد الاعتماد على نماذج الذكاء الاصطناعي التوليدي مثل “تشات جي بي تي” (ChatGPT) من شركة OpenAI، و”جيميناي” (Gemini) من جوجل، و”كوبايلوت” (Copilot) من مايكروسوفت ، تبرز “الهلاوس” كتحدٍ تقني متكرر أمام المستخدمين.

ويُقصد بـ”الهلاوس” الإجابات التي يقدمها الذكاء الاصطناعي وتبدو واقعية ومقنعة من حيث الصياغة، لكنها غير صحيحة أو لا أساس لها من الواقع، كما تُعتبر خللاً جوهرياً في بنية هذه الأنظمة، إذ لا تعتمد في إجاباتها على التحقق من المعلومات، بل على التنبؤ بالكلمات التالية استناداً إلى أنماط لغوية من بيانات التدريب. ونتيجة لذلك، قد تكون الإجابة متماسكة لغوياً، لكنها بعيدة عن الحقيقة.

وللتعامل الواعي مع هذه النماذج، من الضروري أن يتعلم المستخدمون التعرف على العلامات التحذيرية التي تدل على وجود هلاوس.

تفاصيل دون مصادر

كما أن أحد أكثر المظاهر إزعاجاً للهلاوس، هو استخدام الذكاء الاصطناعي لتفاصيل دقيقة للغاية تبدو حقيقية للوهلة الأولى، فقد يتضمن الرد تواريخ، وأسماء، وأرقام، وحتى أسماء مقالات أو مؤلفين، مما يعزز الإحساس بالموثوقية.

لكن هذه التفاصيل قد تكون مختلقة بالكامل، وبينما يعتمد الذكاء الاصطناعي على توليد محتوى يحاكي الأنماط اللغوية التي تعلمها، فإنه قد يبتكر أسماء ومعلومات تتماشى مع بنية إجابة صحيحة، من دون أن يستند إلى مصدر حقيقي.

وعلى سبيل المثال، قد يذكر اسم شخصية حقيقية، ويضيف إليها مواقف أو تصريحات مختلقة، ما يصعّب على القارئ تمييز الحقيقة من عدمها، خاصة إذا لم يكن لديه خلفية عن الموضوع.

لهذا السبب، من الضروري التحقق من أي معلومة قد تؤثر على قرارات المستخدم. فإذا لم يتمكن من العثور على المصدر أو الاسم أو التاريخ المذكور في أي مكان آخر، فربما يكون بصدد قراءة “هلاوس” أنتجها النظام الذكي.

نبرة واثقة دون مبرر

الهلاوس لا تأتي دائماً مغلفة في شك أو تردد، بل على العكس، فغالباً ما يقدم الذكاء الاصطناعي إجاباته بصيغة واثقة وسلسة، حتى عندما تكون المعلومات خاطئة.

ويرجع ذلك إلى آلية تصميم النماذج، إذ يتم تحسينها لإنتاج نصوص تبدو منطقية ومتسقة لغوياً. وبدلاً من أن تعترف بعدم المعرفة أو تشكك في المعلومة، تميل هذه النماذج إلى تقديم إجابات شاملة توحي بالإحاطة الكاملة.

في حين أن الخبراء من البشر قد يستخدمون تعبيرات مثل “لست متأكداً” أو “هذا يخضع للنقاش”، فإن روبوتات الذكاء الاصطناعي نادراً ما تستخدم هذه الصيغ، رغم أنها بدأت مؤخراً في إظهار بعض الحذر في بعض الإصدارات الحديثة.

وفي مواضيع مثل الطب أو العلوم أو المسائل القانونية، حيث تكون الحقائق محل نقاش أو تتغير مع الوقت، فإن تقديم إجابة قاطعة قد يكون مؤشراً على هلاوس، لأن النموذج قد يكون استكمل فراغاً معرفياً من خلال سرد غير حقيقي بدلاً من الإشارة إلى وجود خلاف أو عدم وضوح.

مراجع مزيفة

في كثير من الأحيان، يزودك الذكاء الاصطناعي بإجابات تتضمن مراجع وأسماء مصادر تبدو موثوقة، لكن عند التحقق منها، تكتشف أنها غير موجودة.

ويشكل هذا النوع من الهلاوس خطراً بالغاً، لا سيما في الأوساط الأكاديمية أو المهنية. فقد يقوم طالب بإعداد مراجعة أدبية استناداً إلى مجموعة من المراجع، ليتبين لاحقاً أن جميعها وهمية.

وغالباً ما تكون هذه المراجع مكتوبة بأسلوب متقن، وتشمل أسماء دوريات أكاديمية وأسماء مؤلفين وأرقام صفحات، ما يزيد من صعوبة اكتشاف زيفها دون بحث معمق.

ولتفادي هذا الفخ، ينبغي التأكد من صحة أي ورقة علمية أو مرجع أو اسم مؤلف عبر قواعد بيانات موثوقة أو عبر محركات البحث المباشر، وإذا لم تظهر أي نتائج حقيقية، فقد تكون بصدد “مرجع غير موجود” صنعه النموذج ليضفي على إجابته طابعاً أكاديمياً.

تناقض داخلي في الإجابات

حتى وإن بدت الإجابات صحيحة في ظاهرها، فإن التناقض بين الردود قد يكون علامة حاسمة على الهلاوس، فمثلاً، إذا طرحت على ChatGPT سؤالاً معيناً، وتلقيت إجابة مفصلة، ثم طرحت سؤال متابعة مرتبطاً بالإجابة السابقة، ووجدت أن النموذج يناقض نفسه، فهناك احتمال كبير أن تكون إحدى الإجابتين خاطئة.

وتُعد هذه الطريقة فاعلة في كشف الهلاوس؛ لأن النموذج لا يمتلك قاعدة بيانات حقيقية يعود إليها لضمان الاتساق، وبالتالي، فإن التناقض في الإجابات، خاصة في سياق واحد، يكشف هشاشة المحتوى وغياب الأساس المعرفي الحقيقي.

منطق غير واقعي

وفي بعض الأحيان، حتى إذا بدت الإجابة متماسكة لغوياً، فإن محتواها قد يصطدم بالواقع أو بالعقل، فمن المعروف أن نماذج الذكاء الاصطناعي لا “تفكر” كما يفعل الإنسان، بل تقوم بتنبؤ تسلسلات لغوية فقط. لذلك، قد تبدو بعض الإجابات معقولة على الورق، لكنها تنهار عند إخضاعها للتفكير المنطقي أو التجربة العملية.

ففي واقعة شهيرة، اقترح نموذج ذكاء اصطناعي أن يُضاف الغراء إلى صلصة البيتزا لكي يلتصق الجبن بشكل أفضل، وعلى الرغم من أن هذا قد يبدو منطقياً لغوياً، إلا أنه يخالف أبسط مبادئ الطهي والصحة العامة.

وهذا النوع من الأخطاء ناتج عن اعتماد النماذج على تركيب لغوي قائم على أنماط محفوظة، وليس على فهم فعلي للعالم أو للقوانين الفيزيائية والبيولوجية.

في النهاية، تُعد الهلاوس جزءاً لا يتجزأ من طبيعة نماذج الذكاء الاصطناعي الحالية، وطالما أن هذه النماذج تعتمد على تنبؤ الكلمات وليس على التحقق من الحقائق، فإن هذه المشكلة ستستمر في الظهور.

ومن هنا، تصبح القدرة على التمييز بين المحتوى الحقيقي والزائف مهارة أساسية في العصر الرقمي، فلا ينبغي الوثوق الأعمى بالإجابات، بل يجب التعامل معها بعين ناقدة، وممارسة التحقق المستمر، خاصة في المواضيع الحساسة.

شاركها.