يُطلق باحثو الذكاء الاصطناعي جرس الإنذار عند مغادرتهم الباب

الباحثون في الذكاء الاصطناعي يطلقون الإنذار عند مغادرتهم

تحليل بواسطة أليسون مورو، CNN

الأربعاء، 18 فبراير 2026 الساعة 10:21 مساءً بتوقيت غرينتش+9 قراءة لمدة 5 دقائق

عدد من موظفي الذكاء الاصطناعي البارزين قرروا الاستقالة، مع تحذيرات صريحة بأن الشركات التي عملوا بها تتقدم بسرعة كبيرة وتقليل من شأن عيوب التكنولوجيا. - d3sign/Moment RF/Getty Images

_ نسخة من هذه القصة ظهرت في نشرة Nightcap للأعمال في CNN. للاشتراك في النشرة مجانًا _هنا.

“العالم في خطر،” حذر رئيس فريق أبحاث الضوابط في أنثروبيك السابق وهو يودع المنصب. قال باحث في OpenAI، وهو أيضًا في طريقه للخروج، إن التكنولوجيا لديها “إمكانية للتلاعب بالمستخدمين بطرق لا نملك الأدوات لفهمها، ناهيك عن منعها.”

هم جزء من موجة من الباحثين والتنفيذيين في الذكاء الاصطناعي الذين لا يتركون أصحاب العمل فحسب — بل يطلقون جرس الإنذار بصوت عالٍ عند مغادرتهم، مع تسليط الضوء على ما يرونه علامات حمراء واضحة.

بينما يُعرف وادي السيليكون بتقلباته العالية، تأتي أحدث التغييرات مع سباق قادة السوق مثل OpenAI وأنثروبيك نحو الاكتتاب العام الذي قد يعزز نموهم بشكل كبير، مع دعوة لرقابة صارمة على عملياتهم.

في الأيام القليلة الماضية فقط، قرر عدد من موظفي الذكاء الاصطناعي البارزين الاستقالة، مع تحذيرات صريحة بأن الشركات التي عملوا بها تتقدم بسرعة كبيرة وتقليل من شأن عيوب التكنولوجيا.

أعلنت زوي هيتزج، باحثة في OpenAI منذ عامين، استقالتها الأربعاء في مقال بصحيفة نيويورك تايمز، مشيرة إلى “مخاوف عميقة” بشأن استراتيجية الإعلان الناشئة لشركة OpenAI. حذرت هيتزج من إمكانية ChatGPT في التلاعب بالمستخدمين، وقالت إن أرشيف بيانات المستخدمين الخاص بالروبوت، المبني على “مخاوف طبية، ومشاكل علاقاتهم، ومعتقداتهم حول الله والآخرة”، يطرح معضلة أخلاقية بالضبط لأن الناس كانوا يعتقدون أنهم يتحدثون مع برنامج لا يهدف إلى مصلحة خفية.

تأتي انتقادات هيتزج في وقت أفاد فيه موقع الأخبار التقنية Platformer أن OpenAI ألغت فريق “محاذاة المهمة”، الذي أنشئ في 2024 لتعزيز هدف الشركة في ضمان استفادة جميع البشرية من السعي نحو “الذكاء الاصطناعي العام” — وهو ذكاء اصطناعي افتراضي قادر على التفكير بمستوى الإنسان.

لم ترد OpenAI على الفور على طلب تعليق.

قال رئيس فريق أبحاث الضوابط في أنثروبيك، “طوال فترة وجودي هنا، رأيت مرارًا وتكرارًا مدى صعوبة أن نسمح حقًا لقيمنا أن تحكم أفعالنا.” - غابي جونز/بلومبرج/Getty Images

أيضًا هذا الأسبوع، نشر مري نانك شارما، رئيس فريق أبحاث الضوابط في أنثروبيك، رسالة غامضة يوم الثلاثاء يعلن فيها قراره بمغادرة الشركة ويحذر من أن “العالم في خطر.”

لم تذكر رسالة شارما سوى إشارات غامضة عن أنثروبيك، الشركة وراء روبوت كلود. لم يقل لماذا يترك، لكنه أشار إلى أنه “من الواضح لي أن الوقت للمضي قدمًا قد حان” وأنه “طوال فترة وجودي هنا، رأيت مرارًا وتكرارًا مدى صعوبة أن نسمح حقًا لقيمنا أن تحكم أفعالنا.”

قالت أنثروبيك لـ CNN في بيان إنها ممتنة لعمل شارما في تقدم أبحاث سلامة الذكاء الاصطناعي. وأشارت إلى أنه لم يكن رئيس السلامة ولا كان مسؤولاً عن الضوابط الأوسع في الشركة.

استمر الخبر  

وفي الوقت نفسه، استقال مؤسسان من xAI خلال 24 ساعة هذا الأسبوع، معلنين عن رحيلهما على X. هذا يترك نصف مؤسسي xAI فقط في الشركة، التي تندمج مع SpaceX بقيادة إيلون ماسك لإنشاء أكثر شركة خاصة قيمة في العالم. وأعلن على وسائل التواصل الاجتماعي عن رحيل خمسة موظفين آخرين على الأقل من xAI خلال الأسبوع الماضي.

لم يتضح على الفور سبب مغادرة المؤسسين الأخيرين لـ xAI، ولم ترد xAI على طلب للتعليق. قال ماسك في منشور على وسائل التواصل الاجتماعي الأربعاء إن xAI “تمت إعادة تنظيمه” لتسريع النمو، والذي “للأسف استلزم فصل بعض الأشخاص.”

على الرغم من أن التنقل بين المواهب العليا ليس غير معتاد في صناعة ناشئة مثل الذكاء الاصطناعي، إلا أن حجم الرحيل خلال فترة قصيرة في xAI يبرز.

واجهت الشركة الناشئة رد فعل عالمي عن روبوت Grok، الذي سمح له بتوليد صور إباحية غير موافقة للنساء والأطفال لأسابيع قبل أن تتدخل الفريق لإيقافه. كما أن Grok كان عرضة لتوليد تعليقات معادية للسامية ردًا على مطالبات المستخدمين.

وتؤكد رحيل آخرين مؤخرًا التوتر بين بعض الباحثين القلقين بشأن السلامة والتنفيذيين الكبار الحريصين على توليد الإيرادات.

وفي يوم الثلاثاء، ذكرت صحيفة وول ستريت جورنال أن OpenAI أقالت أحد كبار مسؤولي السلامة بعد أن عارضت إطلاق “وضع البالغين” الذي يسمح بمحتوى إباحي على ChatGPT. وأقالت OpenAI مسؤولة السلامة، ريان بيرمايستر، على أساس أنها تميزت ضد موظف ذكر — وهو اتهام قالت بيرمايستر إنه “كاذب تمامًا” للصحيفة.

أعلنت باحثة في OpenAI استقالتها الأربعاء، مشيرة إلى “مخاوف عميقة” بشأن استراتيجية الإعلان الناشئة لشركة OpenAI. - جااب أريينس/نور فوتو/شترستوك

قالت OpenAI للصحيفة إن فصلها لم يكن مرتبطًا بـ “أي قضية أثارتها أثناء عملها في الشركة.”

كانت الانشقاقات على مستوى عالٍ جزءًا من قصة الذكاء الاصطناعي منذ طرح ChatGPT في السوق في أواخر 2022. بعد فترة قصيرة، غادر جيفري هينتون، المعروف بـ “عراب الذكاء الاصطناعي”، منصبه في جوجل وبدأ في الترويج لما يراه مخاطر وجودية يفرضها الذكاء الاصطناعي، بما في ذلك اضطرابات اقتصادية هائلة في عالم لن “يتمكن فيه الكثيرون من معرفة ما هو صحيح بعد الآن.”

تكثر التوقعات الكارثية — بما في ذلك بين التنفيذيين في الذكاء الاصطناعي الذين لديهم حافز مالي للمبالغة في قوة منتجاتهم. واحدة من تلك التوقعات انتشرت بشكل واسع هذا الأسبوع، حيث نشر الرئيس التنفيذي لشركة HyperWrite، مات شومر، مقالًا يقارب 5000 كلمة حول كيف جعلت نماذج الذكاء الاصطناعي الأخيرة بعض الوظائف التقنية غير ضرورية.

“نحن نخبركم بما حدث بالفعل في وظائفنا الخاصة،” كتب، “ونحذركم أنكم أنتم التالي.”

للمزيد من أخبار CNN والنشرات الإخبارية، أنشئ حسابًا على CNN.com

الشروط وسياسة الخصوصية

لوحة تحكم الخصوصية

مزيد من المعلومات

XAI3.27%
GROK1.06%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت