تقوم Anthropic بتعيين قائد سابق للسلامة في OpenAI لرئاسة فريق جديد
انضم جان ليك، الباحث الرائد في مجال الذكاء الاصطناعي والذي استقال في وقت سابق من هذا الشهر من OpenAI قبل أن ينتقد علنًا نهج الشركة فيما يتعلق بسلامة الذكاء الاصطناعي، إلى Anthropic المنافسة لـ OpenAI لقيادة فريق “الاصطفاف الفائق” الجديد.
في منشور على X، قال Leike أن فريقه في Anthropic سيركز على جوانب مختلفة من سلامة وأمن الذكاء الاصطناعي، وتحديدًا “الرقابة القابلة للتطوير”، و”التعميم من الضعيف إلى القوي” وأبحاث المواءمة الآلية.
يقول مصدر مطلع على الأمر لـ TechCrunch أن Leike سيقدم تقاريره مباشرة إلى جاريد كابلان، كبير مسؤولي العلوم في Anthropic، وأن الباحثين الأنثروبيين الذين يعملون حاليًا على مراقبة قابلة للتطوير – تقنيات للتحكم في سلوك الذكاء الاصطناعي واسع النطاق بطرق يمكن التنبؤ بها ومرغوبة – سينتقلون إلى الإبلاغ إلى Leike بينما يدور فريق Leike.
من نواحٍ عديدة، يبدو فريق Leike مشابهًا في مهمته لفريق Superalignment الذي تم حله مؤخرًا في OpenAI. كان لدى فريق Superalignment، الذي شاركت Leike في قيادته، هدف طموح يتمثل في حل التحديات التقنية الأساسية المتمثلة في التحكم في الذكاء الاصطناعي الفائق في السنوات الأربع المقبلة، لكنه غالبًا ما وجد نفسه معوقًا بسبب قيادة OpenAI.
حاولت شركة Anthropic في كثير من الأحيان وضع نفسها على أنها أكثر تركيزًا على السلامة من OpenAI.
كان الرئيس التنفيذي لشركة Anthropic، داريو أمودي، نائبًا للأبحاث في OpenAI، ويقال إنه انفصل عن OpenAI بعد خلاف حول اتجاه الشركة – أي التركيز التجاري المتزايد لـ OpenAI. أحضر أمودي معه عددًا من الموظفين السابقين في OpenAI لإطلاق Anthropic، بما في ذلك قائد السياسة السابق في OpenAI جاك كلارك.