إيليا سوتسكيفر، كبير العلماء السابق في OpenAI، يطلق شركة جديدة للذكاء الاصطناعي
أطلق إيليا سوتسكيفر، أحد مؤسسي OpenAI، شركة جديدة، Safe Superintelligence Inc. (SSI)، بعد شهر واحد فقط من ترك OpenAI.
Sutskever، الذي كان كبير العلماء في OpenAI منذ فترة طويلة، أسس SSI مع شريك YC السابق دانييل جروس والمهندس السابق في OpenAI دانييل ليفي.
في OpenAI، كان Sutskever جزءًا لا يتجزأ من جهود الشركة لتحسين سلامة الذكاء الاصطناعي مع ظهور أنظمة الذكاء الاصطناعي “الفائقة الذكاء”، وهو المجال الذي عمل فيه جنبًا إلى جنب مع جان لايكي. ومع ذلك، ترك كل من سوتسكيفر ثم لايكي الشركة بشكل كبير في شهر مايو بعد خلاف مع القيادة في OpenAI حول كيفية التعامل مع سلامة الذكاء الاصطناعي. يرأس Leike الآن فريقًا في Anthropic.
لقد كان Sutskever يهتم بالجوانب الشائكة لسلامة الذكاء الاصطناعي منذ فترة طويلة. في تدوينة نُشرت في عام 2023، توقع (يكتب مع لايكي) أن الذكاء الاصطناعي الذي يتمتع بذكاء يتجاوز ذكاء البشر يمكن أن يصل في غضون عقد من الزمن – وعندما يحدث ذلك، فلن يكون بالضرورة خيرًا، مما يستلزم البحث عن طرق للتحكم والتقييد. هو – هي.
“SSI هي مهمتنا، واسمنا، وخريطة طريق منتجاتنا بأكملها، لأنها محور تركيزنا الوحيد. إن فريقنا والمستثمرين ونموذج الأعمال لدينا جميعًا متوافقون لتحقيق مباحث أمن الدولة. نحن نتعامل مع السلامة والقدرات جنبًا إلى جنب، حيث يتم حل المشكلات التقنية من خلال الهندسة الثورية والإنجازات العلمية.
“نحن نخطط لتعزيز القدرات في أسرع وقت ممكن مع التأكد من أن سلامتنا تظل دائمًا في المقدمة. بهذه الطريقة، يمكننا التوسع بسلام. ويعني تركيزنا الفردي عدم تشتيت الانتباه عن طريق النفقات الإدارية العامة أو دورات المنتج، ويعني نموذج أعمالنا أن السلامة والأمن والتقدم كلها معزولة عن الضغوط التجارية قصيرة المدى.
لدى SSI مكاتب في بالو ألتو وتل أبيب، حيث تقوم حاليًا بتوظيف المواهب التقنية.
اكتشاف المزيد من موقع خبرة التقني
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.