رئيس وكالة الأمن القومي السابق ينضم إلى مجلس إدارة OpenAI ولجنة السلامة
أعلنت شركة الذكاء الاصطناعي بعد ظهر الخميس أن الرئيس السابق لوكالة الأمن القومي، الجنرال المتقاعد بول ناكاسوني، سينضم إلى مجلس إدارة OpenAI. وسيشارك أيضًا في اللجنة الفرعية “للأمن والسلامة” التابعة لمجلس الإدارة.
من المرجح أن تهدف هذه الإضافة رفيعة المستوى إلى إرضاء النقاد الذين يعتقدون أن OpenAI تتحرك بشكل أسرع مما هو حكيم لعملائها وربما للبشرية، حيث تطرح نماذج وخدمات دون تقييم مخاطرها بشكل مناسب أو إغلاقها.
ويتمتع ناكاسوني بخبرة تمتد لعقود من الجيش والقيادة السيبرانية الأمريكية ووكالة الأمن القومي. ومهما كان شعور المرء تجاه الممارسات وعملية صنع القرار في هذه المنظمات، فمن المؤكد أنه لا يمكن اتهامه بالافتقار إلى الخبرة.
مع ترسيخ شركة OpenAI نفسها بشكل متزايد كمزود للذكاء الاصطناعي ليس فقط لصناعة التكنولوجيا ولكن أيضًا للحكومة والدفاع والشركات الكبرى، فإن هذا النوع من المعرفة المؤسسية يعد ذا قيمة لنفسه ولتهدئة المساهمين القلقين. (ولا شك أن العلاقات التي يجلبها مع الدولة والأجهزة العسكرية هي موضع ترحيب أيضًا).
وقال ناكاسوني في بيان صحفي: “إن تفاني OpenAI في مهمتها يتوافق بشكل وثيق مع قيمي وخبرتي في الخدمة العامة”.
ويبدو هذا صحيحا بكل تأكيد: فقد دافع ناكاسوني ووكالة الأمن القومي مؤخرا عن ممارسة شراء بيانات ذات مصدر مشكوك فيه لتغذية شبكات المراقبة التابعة لها، وحجتا بأنه لا يوجد قانون ضد هذه الممارسة. ومن جانبها، قامت شركة OpenAI ببساطة بأخذ مساحات كبيرة من البيانات من الإنترنت، بدلًا من شرائها، بحجة أنه لا يوجد قانون ضدها عندما يتم اكتشافها. يبدو أنهم متحدون في رأي واحد عندما يتعلق الأمر بطلب المغفرة بدلاً من الإذن، إذا طلبوا أيًا منهما بالفعل.
ينص إصدار OpenAI أيضًا على ما يلي:
ستساهم رؤى ناكاسوني أيضًا في جهود OpenAI لفهم أفضل لكيفية استخدام الذكاء الاصطناعي لتعزيز الأمن السيبراني من خلال الكشف السريع عن تهديدات الأمن السيبراني والاستجابة لها. نعتقد أن الذكاء الاصطناعي لديه القدرة على تقديم فوائد كبيرة في هذا المجال للعديد من المؤسسات التي يتم استهدافها بشكل متكرر بالهجمات السيبرانية مثل المستشفيات والمدارس والمؤسسات المالية.
إذن هذه لعبة سوق جديدة أيضًا.
سينضم ناكاسوني إلى لجنة السلامة والأمن التابعة لمجلس الإدارة، وهي “المسؤولة عن تقديم توصيات إلى مجلس الإدارة بأكمله بشأن قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI”. ما يفعله هذا الكيان المنشأ حديثًا بالفعل وكيف سيعمل لا يزال غير معروف، حيث أن العديد من كبار الأشخاص الذين يعملون في مجال السلامة (فيما يتعلق بمخاطر الذكاء الاصطناعي) قد تركوا الشركة، واللجنة نفسها في منتصف فترة 90 يومًا تقييم عمليات الشركة والضمانات.
اكتشاف المزيد من موقع خبرة التقني
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.