يقول المصدر إن OpenAI أنشأت فريقًا للتحكم في الذكاء الاصطناعي “الفائق الذكاء”، ثم تركته يتلاشى
حصل فريق OpenAI’s Superalignment، المسؤول عن تطوير طرق التحكم وتوجيه أنظمة الذكاء الاصطناعي “فائقة الذكاء”، على 20% من الموارد الحاسوبية للشركة، وفقًا لشخص من هذا الفريق. لكن طلبات الحصول على جزء صغير من تلك الحوسبة كانت تُرفض في كثير من الأحيان، مما يمنع الفريق من القيام بعملهم.
دفعت هذه المشكلة، من بين أمور أخرى، العديد من أعضاء الفريق إلى الاستقالة هذا الأسبوع، بما في ذلك القائد المشارك جان ليك، وهو باحث سابق في DeepMind والذي شارك أثناء عمله في OpenAI في تطوير ChatGPT وGPT-4 وInstructGPT الذي سبق ChatGPT.
أعلن Leike عن بعض أسباب استقالته صباح الجمعة. “لقد كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار،” كتب Leike في سلسلة من المنشورات على X. “أعتقد أنه يجب إنفاق المزيد من النطاق الترددي لدينا للاستعداد للأجيال القادمة من النماذج، حول الأمن والمراقبة والتأهب والسلامة وقوة الخصومة والمواءمة (الفائقة) والسرية والتأثير المجتمعي والمواضيع ذات الصلة. من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك.
ولم ترد OpenAI على الفور على طلب للتعليق على الموارد التي وعدت بها وخصصتها لهذا الفريق.
شكلت OpenAI فريق Superalignment في يوليو الماضي، وقاده إيليا سوتسكيفر، المؤسس المشارك لـ OpenAI، والذي استقال أيضًا من الشركة هذا الأسبوع. كان لديها هدف طموح يتمثل في حل التحديات التقنية الأساسية للتحكم في الذكاء الاصطناعي الفائق في السنوات الأربع المقبلة. انضم إلى الفريق علماء ومهندسون من قسم المحاذاة السابق في OpenAI بالإضافة إلى باحثين من مؤسسات أخرى في جميع أنحاء الشركة، وكان من المقرر أن يساهم الفريق في الأبحاث التي توضح سلامة النماذج الداخلية وغير التابعة لـ OpenAI، ومن خلال المبادرات بما في ذلك برنامج المنح البحثية والتماس العمل ومشاركته مع صناعة الذكاء الاصطناعي الأوسع.
نجح فريق Superalignment في نشر مجموعة من أبحاث السلامة وتوجيه ملايين الدولارات في شكل منح لباحثين خارجيين. ولكن، مع بدء إطلاق المنتجات في استهلاك قدر متزايد من النطاق الترددي لقيادة OpenAI، وجد فريق Superalignment نفسه مضطرًا إلى النضال من أجل المزيد من الاستثمارات الأولية – وهي استثمارات يعتقد أنها ضرورية لمهمة الشركة المعلنة المتمثلة في تطوير الذكاء الاصطناعي الفائق لصالح البشرية جمعاء. .
وتابع لايكي: “إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته”. “ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها في المرتبة الثانية بالنسبة للمنتجات اللامعة.”
كانت معركة Sutskever مع الرئيس التنفيذي لشركة OpenAI Sam Altman بمثابة إلهاء إضافي كبير.
تحرك سوتسكيفر، جنبًا إلى جنب مع مجلس إدارة OpenAI القديم، لإقالة ألتمان بشكل مفاجئ في أواخر العام الماضي بسبب مخاوف من أن ألتمان لم يكن “صريحًا باستمرار” مع أعضاء مجلس الإدارة. تحت ضغط من مستثمري OpenAI، بما في ذلك Microsoft والعديد من موظفي الشركة، أعيد ألتمان في النهاية إلى منصبه، واستقال معظم أعضاء مجلس الإدارة، ويقال إن سوتسكيفر لم يعد إلى العمل أبدًا.
وفقًا للمصدر، كان لـ Sutskever دورًا أساسيًا في فريق Superalignment، حيث لم يقتصر على المساهمة في الأبحاث فحسب، بل كان أيضًا بمثابة جسر للأقسام الأخرى داخل OpenAI. سيكون أيضًا بمثابة سفير من نوع ما، مما يثير الإعجاب بأهمية عمل الفريق على صانعي القرار الرئيسيين في OpenAI.
بعد رحيل Leike وSutskever، انتقل جون شولمان، وهو مؤسس مشارك آخر لـ OpenAI، لرئاسة نوع العمل الذي كان يقوم به فريق Superalignment، ولكن لن يكون هناك فريق متخصص بعد الآن – بدلاً من ذلك، سيكون فريقًا مرتبطًا بشكل فضفاض مجموعة من الباحثين المدمجين في الأقسام في جميع أنحاء الشركة. ووصفها متحدث باسم OpenAI بأنها “متكاملة”. [the team] اكثر عمقا.”
والخوف هو أنه نتيجة لذلك، فإن تطوير الذكاء الاصطناعي في OpenAI لن يركز على السلامة كما كان يمكن أن يكون.
نحن نطلق نشرة إخبارية تعتمد على الذكاء الاصطناعي! اشتراك هنا لبدء استلامها في صناديق البريد الوارد الخاصة بك في 5 يونيو.
اكتشاف المزيد من موقع خبرة التقني
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.