قرر عدد من الأسماء البارزة في قطاع الذكاء الاصطناعي ترك مناصبهم مؤخراً، مع تحذير بعضهم صراحة من أن الشركات التي عملوا لديها تمضي بسرعة مفرطة وتقلل من شأن أوجه القصور في التكنولوجيا الخاصة بهم.
ويندرج هؤلاء ضمن موجة من باحثي الذكاء الاصطناعي ومديريه التنفيذيين الذين لا يكتفون بمغادرة شركاتهم، بل يقرعون جرس الإنذار علناً عند خروجهم، مسلطين الضوء على ما يعتبرونه مؤشرات خطر حمراء واضحة.
ورغم أن وادي السيليكون معروف بارتفاع معدلات التنقل الوظيفي، فإن موجة المغادرات الأخيرة تأتي في وقت تتسابق فيه شركات رائدة في السوق مثل “أوبن إيه آي” OpenAI و”أنثروبيك” Anthropic نحو طروحات عامة أولية قد تعزز نموها بشكل كبير، لكنها تفتح الباب أيضاً أمام تدقيق مكثف في عملياتها، وفق شبكة CNN.
“العالم في خطر”
في رسالة نشرها بالتزامن مع مغادرته، حذّر مرينانك شارما، الذي كان يقود فريق أبحاث الضوابط الوقائية في أنثروبيك، من أن “العالم في خطر”. ولم يشر صراحة إلى أسباب استقالته، لكنه كتب أن الوقت قد حان للمضي قدماً، مضيفاً: “طوال فترة عملي هنا، رأيت مراراً مدى صعوبة أن نحكم أفعالنا فعلياً بقيمنا”.
وأشار شارما إلى التحديات التي تواجه ترجمة المبادئ المعلنة بشأن سلامة الذكاء الاصطناعي إلى ممارسات عملية داخل الشركات.
من جانبها، قالت الشركة في بيان إنها ممتنة لإسهاماته في تطوير أبحاث سلامة الذكاء الاصطناعي، موضحة أنه لم يكن رئيس قسم السلامة في الشركة، ولا المسؤول عن منظومة الضوابط الأوسع نطاقاً.
مغادرة OpenAl
وأعلنت زوي هيتزيج، الباحثة في OpenAl على مدى العامين الماضيين، استقالتها في مقال نشرته صحيفة “نيويورك تايمز”، مشيرة إلى “تحفظات عميقة” إزاء استراتيجية الإعلانات الناشئة لدى الشركة.
وقالت هيتزيج، التي حذّرت من قدرة “تشات جي بي تي” ChatGPT على التلاعب بالمستخدمين، إن أرشيف بيانات المستخدمين لدى روبوت الدردشة، المبني على “مخاوفهم الطبية، ومشكلاتهم العاطفية، ومعتقداتهم”، يطرح معضلة أخلاقية تحديداً لأن الناس كانوا يعتقدون أنهم يتحاورون مع برنامج لا دوافع خفية له.
وتأتي انتقادات هيتزيج في وقت أفاد فيه موقع Platformer التقني بأن OpenAl قامت بحل فريق “مواءمة المهمة” الذي أُنشئ عام 2024 لتعزيز هدف الشركة المتمثل في ضمان استفادة البشرية جمعاء من السعي نحو “الذكاء الاصطناعي العام” — وهو مفهوم افتراضي لذكاء اصطناعي قادر على التفكير بمستوى يماثل الإنسان.
وذكرت صحيفة “وول ستريت جورنال” كذلك أن OpenAI فصلت إحدى كبار المسؤولين عن السلامة بعد أن أعربت عن معارضتها لإطلاق “وضع للبالغين” يتيح محتوى إباحياً على ChatGPT.
وأضافت الصحيفة أن OpenAI أنهت خدمة مسؤولة السلامة، رايان بايرمايستر، بدعوى تمييزها ضد موظف ذكر، وهو اتهام قالت بايرمايستر للصحيفة إنه “عارٍ تماماً عن الصحة”.
كما نقلت الصحيفة عن OpenAI قولها إن قرار الإقالة لم يكن مرتبطاً “بأي مسألة أثارتها أثناء عملها”.
حلّ فريق “مواءمة المهمة”
تزامنت الاستقالة مع تقرير نشره موقع Platformer يفيد بأن OpenAI قامت بحل فريق “مواءمة المهمة”، الذي أُنشئ عام 2024 لدعم هدف الشركة المعلن بضمان استفادة البشرية من تطوير “الذكاء الاصطناعي العام”، وهو مفهوم يشير إلى نظام افتراضي قادر على التفكير بمستوى مماثل للإنسان، وكذلك الحماية من عواقبه السلبية.
ولم ترد الشركة فوراً على طلب للتعليق.
مغادرات متسارعة وإعادة هيكلة xAI
وفي الوقت نفسه، غادر اثنان من المؤسسين المشاركين لشركة “إكس إيه آي” xAI خلال 24 ساعة هذا الأسبوع، معلنين رحيلهما عبر منصة “إكس”.
وبذلك يتبقى نصف مؤسسي الشركة فقط، التي تندمج مع “سبيس إكس” SpaceX التابعة لإيلون ماسك لتشكيل واحدة من أعلى الشركات الخاصة قيمة في العالم.
كما أعلن خمسة موظفين آخرين على الأقل في “إكس إيه آي” مغادرتهم عبر منصات التواصل الاجتماعي خلال الأسبوع الماضي.
ولم يتضح على الفور سبب مغادرة أحدث المؤسسين المشاركين في xAI، كما لم ترد الشركة على طلب للتعليق. وفي منشور عبر وسائل التواصل، قال ماسك إن “إكس إيه آي” أُعيد تنظيمها لتسريع وتيرة النمو، ما “استلزم للأسف الاستغناء عن بعض الأشخاص”.
ورغم أن التنقل الوظيفي أمر معتاد في قطاع ناشئ وسريع التطور مثل الذكاء الاصطناعي، فإن حجم المغادرات خلال فترة زمنية قصيرة في xAI يلفت الانتباه.
وقد واجهت الشركة الناشئة ردود فعل غاضبة على مستوى عالمي بسبب روبوت الدردشة “جروك” Grok، الذي سُمح له لأسابيع بتوليد صور إباحية لنساء وأطفال من دون موافقة، قبل أن يتدخل الفريق لإيقاف ذلك.
وضع متأزم
وتعكس هذه التطورات التوتر القائم بين بعض الباحثين القلقين بشأن معايير السلامة، وبين إدارات تنفيذية تسعى إلى تسريع الابتكار وتعزيز الإيرادات.
تُعد الانشقاقات على مستوى رفيع جزءاً من مشهد الذكاء الاصطناعي منذ إطلاق ChatGPT في أواخر عام 2022. وبعد فترة وجيزة، غادر جيفري هينتون، الملقب بـ”عرّاب الذكاء الاصطناعي”، منصبه في جوجل، وبدأ يحذر علناً مما يعتبره مخاطر وجودية محتملة للتقنية، بما في ذلك اضطرابات اقتصادية واسعة النطاق، وعالم قد “لا يعود فيه كثيرون قادرين على معرفة ما هو حقيقي”.
وفي الوقت نفسه، تنتشر توقعات متشائمة بشأن مستقبل الوظائف، ومن بين الأمثلة على ذلك، منشور مطوّل للرئيس التنفيذي لشركة HyperWrite، مات شومر، بلغ قرابة خمسة آلاف كلمة، اعتبر فيه أن أحدث نماذج الذكاء الاصطناعي جعلت بالفعل بعض الوظائف التقنية في حكم المنقرضة.
وكتب شومر: “نحن نخبركم بما حدث بالفعل في وظائفنا، ونحذركم من أن الدور سيصل إليكم”.
وبينما تتسارع وتيرة التطوير والسعي إلى النمو وجذب الاستثمارات، تتزايد في المقابل الأصوات المطالبة بإعطاء الأولوية للسلامة والحوكمة الأخلاقية، في صناعة باتت تؤثر في مسارات الاقتصاد والمجتمع على حد سواء.
