أخبار العالم

تتعهد شركة OpenAI بمنح معهد سلامة الذكاء الاصطناعي الأمريكي إمكانية الوصول المبكر إلى نموذجه التالي


يقول سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إن OpenAI تعمل مع معهد سلامة الذكاء الاصطناعي الأمريكي، وهو هيئة حكومية اتحادية تهدف إلى تقييم ومعالجة المخاطر في منصات الذكاء الاصطناعي، على اتفاقية لتوفير الوصول المبكر إلى نموذج الذكاء الاصطناعي التوليدي الرئيسي التالي لاختبار السلامة.

كان الإعلان، الذي نشره ألتمان في منشور على موقع X في وقت متأخر من مساء الخميس، خاليًا من التفاصيل. ولكن يبدو أنها – إلى جانب صفقة مماثلة مع هيئة سلامة الذكاء الاصطناعي في المملكة المتحدة التي تم التوصل إليها في يونيو – تهدف إلى مواجهة السرد القائل بأن شركة OpenAI قد قللت من أولوية العمل على سلامة الذكاء الاصطناعي في السعي وراء تقنيات ذكاء اصطناعي أكثر قدرة وقوة.

في شهر مايو/أيار، قامت شركة OpenAI فعلياً بحل وحدة تعمل على مشكلة تطوير الضوابط لمنع أنظمة الذكاء الاصطناعي “فائقة الذكاء” من الانحراف. أشارت التقارير – بما في ذلك تقاريرنا – إلى أن شركة OpenAI تتخلى عن أبحاث السلامة التي أجراها الفريق لصالح إطلاق منتجات جديدة، مما أدى في النهاية إلى استقالة قائدي الفريق المشاركين، جان ليك (الذي يقود الآن أبحاث السلامة في شركة Anthropic الناشئة للذكاء الاصطناعي) وشركة OpenAI المشاركة – المؤسس إيليا سوتسكيفر (الذي أسس شركته الخاصة للذكاء الاصطناعي التي تركز على السلامة، Safe Superintelligence Inc.).

ردًا على مجموعة متزايدة من المنتقدين، قالت OpenAI إنها ستلغي شروطها التقييدية التي تمنع ضمنيًا الإبلاغ عن المخالفات وتنشئ لجنة للسلامة، بالإضافة إلى تخصيص 20% من حساباتها لأبحاث السلامة. (وُعد فريق السلامة الذي تم حله بالحصول على 20% من حوسبة OpenAI مقابل عمله، لكنه لم يتلق هذا في النهاية.) أعاد ألتمان التزامه بتعهد 20% وأكد مجددًا أن OpenAI أبطلت شروط عدم الاستخفاف بالموظفين الجدد والحاليين. بشهر مايو.

ومع ذلك، لم تفعل هذه التحركات الكثير لتهدئة بعض المراقبين – خاصة بعد أن قامت شركة OpenAI بتعيين لجنة السلامة لجميع المطلعين على الشركة بما في ذلك ألتمان، ومؤخرًا، تم إعادة تعيين أحد كبار المسؤولين التنفيذيين في مجال سلامة الذكاء الاصطناعي إلى مؤسسة أخرى.

أثار خمسة من أعضاء مجلس الشيوخ، من بينهم بريان شاتز، وهو ديمقراطي من هاواي، تساؤلات حول سياسات OpenAI في رسالة حديثة موجهة إلى ألتمان. رد جيسون كوون، كبير مسؤولي الإستراتيجية في OpenAI، على الرسالة اليوم، وكتب OpenAI “[is] ملتزمون بتنفيذ بروتوكولات السلامة الصارمة في كل مرحلة من مراحل عمليتنا.

يبدو توقيت اتفاقية OpenAI مع معهد سلامة الذكاء الاصطناعي الأمريكي مشكوكًا فيه إلى حد ما في ضوء موافقة الشركة في وقت سابق من هذا الأسبوع على قانون مستقبل الابتكار، وهو مشروع قانون مقترح من مجلس الشيوخ من شأنه أن يخول معهد السلامة كهيئة تنفيذية تضع المعايير والمبادئ التوجيهية. لنماذج الذكاء الاصطناعي. ويمكن النظر إلى التحركات معًا على أنها محاولة للاستيلاء على التنظيم – أو على الأقل ممارسة نفوذ من شركة OpenAI على صنع سياسات الذكاء الاصطناعي على المستوى الفيدرالي.

وليس من قبيل الصدفة أن ألتمان عضو في مجلس سلامة وأمن الذكاء الاصطناعي التابع لوزارة الأمن الداخلي الأميركية، والذي يقدم توصيات بشأن “تطوير ونشر الذكاء الاصطناعي بشكل آمن ومأمون” في جميع أنحاء البنية التحتية الحيوية في الولايات المتحدة. وقد زادت شركة OpenAI بشكل كبير من نفقاتها على الضغط الفيدرالي هذا العام، حيث أنفقت 800 ألف دولار في الأشهر الستة الأولى من عام 2024 مقابل 260 ألف دولار في عام 2023 بأكمله.

يتشاور معهد سلامة الذكاء الاصطناعي الأمريكي، الموجود داخل المعهد الوطني للمعايير والتكنولوجيا التابع لوزارة التجارة، مع مجموعة من الشركات التي تضم أنثروبيك بالإضافة إلى شركات التكنولوجيا الكبرى مثل جوجل، ومايكروسوفت، وميتا، وأبل، وأمازون، ونفيديا. تم تكليف مجموعة الصناعة بالعمل على الإجراءات الموضحة في الأمر التنفيذي للذكاء الاصطناعي الصادر عن الرئيس جو بايدن في أكتوبر، بما في ذلك تطوير المبادئ التوجيهية للفريق الأحمر للذكاء الاصطناعي، وتقييمات القدرات، وإدارة المخاطر، والسلامة والأمن، ووضع العلامات المائية على المحتوى الاصطناعي.


اكتشاف المزيد من موقع خبرة التقني

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع خبرة التقني

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading