أعلنت شركة OpenAI فتح باب التوظيف لمنصب جديد رفيع المستوى تحت مسمى رئيس الجاهزية Head of Preparedness، وهو منصب يُعنى بشكل مباشر بالتفكير المسبق في أسوأ السيناريوهات المحتملة لتطور أنظمة الذكاء الاصطناعي، والعمل على منعها أو الحد من آثارها قبل وقوعها.

ويأتي هذا الإعلان ضمن صفحة الوظائف الرسمية للشركة، التي أوضحت أن المنصب سيكون مقره في سان فرانسيسكو، ويقع ضمن فريق “أنظمة السلامة”، أحد أكثر الفرق حساسية داخل OpenAI، والمسؤول عن ضمان تطوير ونشر أقوى نماذج الذكاء الاصطناعي بطريقة مسؤولة وآمنة.

فريق أنظمة السلامة

وبحسب الوصف الرسمي للوظيفة، يتولى فريق أنظمة السلامة Safety Systems، مهمة التأكد من أن أكثر نماذج OpenAI يتم تطويرها ونشرها وفق معايير صارمة من المسؤولية. 

ويعمل الفريق على بناء اختبارات تقييم دقيقة، ووضع ضوابط وقائية متعددة المستويات، إضافة إلى تطوير أطر سلامة شاملة تساعد نماذج الذكاء الاصطناعي على التصرف كما هو مقصود منها عند استخدامها في بيئات العالم الحقيقي.

وأشارت الشركة إلى أنها استثمرت بشكل عميق في مجال “الجاهزية” عبر أجيال متعددة من نماذج الذكاء الاصطناعي المتقدمة، من خلال إنشاء تقييمات أساسية لقدرات النماذج، وبناء نماذج للتهديدات المحتملة، وتطوير آليات للتخفيف من المخاطر بالتعاون بين فرق متعددة التخصصات.

 ومع توقع OpenAI أن تستمر قدرات النماذج في الارتفاع، بالتوازي مع تطبيق أنظمة حماية أكثر تعقيداً، أكدت أن هذا المسار سيظل أولوية رئيسية خلال المرحلة المقبلة.

مهام رئيس الجاهزية

سيكون رئيس الجاهزية مسؤولاً عن قيادة الاستراتيجية التقنية والتنفيذية لإطار الجاهزية الخاص بـ OpenAI، وهو الإطار الذي يشرح منهج الشركة في تتبع القدرات المتقدمة للذكاء الاصطناعي والاستعداد للمخاطر الجديدة التي قد تنطوي على أضرار جسيمة أو واسعة النطاق.

وسيتولى شاغل المنصب المسؤولية المباشرة عن بناء وتنسيق تقييمات القدرات، ونماذج التهديدات، وإجراءات الحد من المخاطر، بما يضمن تكوين منظومة سلامة متكاملة، صارمة، وقابلة للتطبيق العملي على نطاق واسع، حتى مع تسارع دورات تطوير المنتجات.

كما يتطلب الدور مستوى عالياً من الحكم التقني، وقدرة واضحة على التواصل، وإمكانية توجيه أعمال معقدة تمتد عبر مجالات متعددة من المخاطر.

وسيتولى رئيس الجاهزية قيادة فريق صغير عالي التأثير لإجراء أبحاث جوهرية في مجال الجاهزية، إلى جانب العمل بشكل وثيق مع مختلف فرق OpenAI لضمان اعتماد الإطار وتنفيذه بشكل متكامل من البداية وحتى مرحلة الإطلاق.

کما سيقود رئيس الجاهزية تطوير تقييمات القدرات المتقدمة للنماذج، مع ضمان أن تكون هذه التقييمات دقيقة، وقوية، وقابلة للتوسع، بما يتناسب مع وتيرة التطوير السريعة.

كما سيشرف على تصميم إجراءات الحماية عبر مجالات المخاطر الكبرى، مثل الأمن السيبراني والمخاطر البيولوجية، للتأكد من أن الضمانات التقنية فعالة، وسليمة، ومتوافقة مع نماذج التهديدات المعتمدة.

يتطلب المنصب تعاوناً وثيقاً مع فرق البحث والهندسة والمنتجات، إضافة إلى فرق مراقبة السياسات وإنفاذها، والحوكمة، وشركاء خارجيين، بهدف دمج مفهوم الجاهزية بشكل فعلي في عمليات النشر الواقعية للذكاء الاصطناعي، وليس الاكتفاء به كإطار نظري.

وترى OpenAI أن نجاح هذا الدور يعتمد على القدرة على مواءمة الاعتبارات العلمية العميقة مع متطلبات التشغيل العملي، والعمل تحت ضغط الجداول الزمنية الضيقة، في بيئة تتسم بالتغير السريع.

تحديات حقيقية

وصف الرئيس التنفيذي لـ OpenAI، سام ألتمان، المنصب بطريقة غير مباشرة بأنه وظيفة مخصصة للتفكير في جميع الطرق التي قد يسير بها الذكاء الاصطناعي نحو نتائج “سيئة للغاية”.

وأوضح ألتمان، في منشور عبر منصة “إكس”، أن التحسن السريع في نماذج الذكاء الاصطناعي يفرض “تحديات حقيقية”، لافتاً إلى مخاطر محتملة تمس الصحة النفسية، إضافة إلى أخطار استخدام الذكاء الاصطناعي كسلاح في الهجمات السيبرانية.

كما أشار إلى أن رئيس الجاهزية سيكون مسؤولاً مستقبلاً عن تأمين النماذج قبل إطلاق قدرات حساسة، بما في ذلك القدرات البيولوجية، ووضع ضوابط تحكم للأنظمة القادرة على تحسين ذاتها.

ووصف ألتمان الوظيفة بأنها “مرهقة”، وهو توصيف اعتبره كثيرون أقل من حجم الضغط الحقيقي المرتبط بالتعامل مع مخاطر عالية التأثير.

برزت OpenAI خلال الفترة الماضية في قلب جدل واسع النطاق، على خلفية اتهامات متزايدة تتعلق بتأثيرات سلبية محتملة لاستخدام روبوت الدردشة ChatGPT على الصحة النفسية والعقلية لبعض المستخدمين، وصلت في حالات قصوى إلى إيذاء النفس والانتحار. 

وأشارت تقارير سابقة إلى وقائع قال فيها مستخدمون أو ذووهم إن التفاعل المطوّل مع النموذج أسهم في تعميق حالات اكتئاب حاد، أو تعزيز أفكار وهمية واضطرابات ذهانية، أو تشجيع أنماط تفكير انعزالية وخطيرة، خصوصاً لدى فئات شابة أو أشخاص يعانون هشاشة نفسية سابقة. 

وفي بعض القضايا التي حظيت بتغطية إعلامية واسعة، جرى الربط بين اعتماد المستخدمين على ChatGPT بوصفه “مصدر دعم نفسي” أو “مستشاراً بديلاً” وبين تدهور حالتهم العقلية، وصولاً إلى اتخاذ قرارات مأساوية بإيذاء أنفسهم أو إنهاء حياتهم، ما فتح الباب أمام اتهامات بأن النموذج قد يغذي الأوهام، أو يضفي شرعية على أفكار سوداوية، أو يفشل في وضع حدود واضحة عند التعامل مع حالات نفسية حرجة. 

هذه الوقائع، حتى وإن كانت موضع نقاش قانوني وأخلاقي، وضعت OpenAI تحت ضغط متزايد من جهات تنظيمية وخبراء صحة نفسية، وسط مطالبات بتشديد الضوابط، وتعزيز آليات الحماية، ومنع تقديم أي مخرجات قد تُفسَّر على أنها دعم غير مهني أو تشجيع غير مباشر لسلوكيات مؤذية للنفس.

شاركها.