أخبار العالم

يدعي مدير وكالة المخابرات المركزية للذكاء الاصطناعي، لاكشمي رامان، أن الوكالة تتخذ “نهجًا مدروسًا” تجاه الذكاء الاصطناعي


كجزء من سلسلة “النساء في الذكاء الاصطناعي” المستمرة التي تقدمها TechCrunch، والتي تسعى إلى منح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، أجرت TechCrunch مقابلة مع لاكشمي رامان، مدير الذكاء الاصطناعي في وكالة المخابرات المركزية. تحدثنا عن طريقها إلى منصب المدير وكذلك استخدام وكالة المخابرات المركزية للذكاء الاصطناعي، والتوازن الذي يجب تحقيقه بين تبني التكنولوجيا الجديدة ونشرها بشكل مسؤول.

كان رامان في المخابرات لفترة طويلة. انضمت إلى وكالة المخابرات المركزية في عام 2002 كمطورة برمجيات بعد حصولها على درجة البكالوريوس من جامعة إلينوي أوربانا شامبين ودرجة الماجستير في علوم الكمبيوتر من جامعة شيكاغو. وبعد عدة سنوات، انتقلت إلى الإدارة في الوكالة، واستمرت في نهاية المطاف في قيادة الجهود الشاملة لعلوم بيانات المؤسسة في وكالة المخابرات المركزية.

تقول رامان إنها كانت محظوظة لأن لديها قدوة من النساء وسابقات كمورد في وكالة المخابرات المركزية، بالنظر إلى الرتب التي يهيمن عليها الذكور تاريخيا في مجال الاستخبارات.

وقالت: “لا يزال لدي أشخاص يمكنني أن أتطلع إليهم، وأطلب منهم النصيحة، وأستطيع أن أتعامل معهم بشأن الشكل التالي للقيادة”. “أعتقد أن هناك أشياء يجب على كل امرأة أن تتنقل فيها أثناء تنقلها في حياتها المهنية.”

من خلال دورها كمديرة، تقوم رامان بتنسيق ودمج وقيادة أنشطة الذكاء الاصطناعي عبر وكالة المخابرات المركزية. وقالت: “نعتقد أن الذكاء الاصطناعي موجود هنا لدعم مهمتنا”. “إن البشر والآلات معًا هم في طليعة استخدامنا للذكاء الاصطناعي.”

الذكاء الاصطناعي ليس جديدا على وكالة المخابرات المركزية. يقول رامان إن الوكالة تستكشف تطبيقات علوم البيانات والذكاء الاصطناعي منذ عام 2000 تقريبًا، خاصة في مجالات معالجة اللغة الطبيعية (أي تحليل النص)، ورؤية الكمبيوتر (تحليل الصور)، وتحليلات الفيديو. وأضافت أن وكالة المخابرات المركزية تحاول البقاء على اطلاع بأحدث الاتجاهات، مثل الذكاء الاصطناعي التوليدي، من خلال خارطة طريق مستمدة من الصناعة والأوساط الأكاديمية.

قال رامان: “عندما نفكر في الكميات الهائلة من البيانات التي يتعين علينا استهلاكها داخل الوكالة، فإن فرز المحتوى هو مجال يمكن أن يحدث فيه الذكاء الاصطناعي التوليدي فرقًا”. “نحن ننظر إلى أشياء مثل المساعدة في البحث والاكتشاف، والمساعدة في التفكير، ومساعدتنا في توليد حجج مضادة للمساعدة في مواجهة التحيز التحليلي الذي قد يكون لدينا.”

هناك شعور بالحاجة الملحة داخل مجتمع الاستخبارات الأمريكي لنشر هذه القوات أي الأدوات التي قد تساعد وكالة المخابرات المركزية في مكافحة التوترات الجيوسياسية المتنامية في جميع أنحاء العالم، من التهديدات الإرهابية المدفوعة بالحرب في غزة إلى حملات التضليل التي شنتها جهات أجنبية (على سبيل المثال، الصين وروسيا). في العام الماضي، حدد مشروع الدراسات التنافسية الخاصة، وهو مجموعة استشارية رفيعة المستوى تركز على الذكاء الاصطناعي في الأمن القومي، جدولاً زمنيًا مدته عامين لأجهزة الاستخبارات المحلية لتجاوز التجريب والمشاريع التجريبية المحدودة لتبني الذكاء الاصطناعي التوليدي على نطاق واسع.

إحدى الأدوات التي تعمل بالذكاء الاصطناعي والتي طورتها وكالة المخابرات المركزية، أوزوريس، تشبه إلى حد ما أداة ChatGPT الخاصة بـ OpenAI، ولكنها مخصصة لحالات الاستخدام الاستخباراتي. فهو يلخص البيانات – في الوقت الحالي، فقط البيانات غير السرية والمتاحة للعامة أو التجارية – ويتيح للمحللين التعمق أكثر من خلال طرح أسئلة المتابعة باللغة الإنجليزية البسيطة.

يتم الآن استخدام أوزوريس من قبل آلاف المحللين، ليس فقط داخل أسوار وكالة المخابرات المركزية، ولكن أيضًا عبر وكالات الاستخبارات الأمريكية الثمانية عشر. ولم يكشف رامان عما إذا كان قد تم تطويره داخليًا أو باستخدام تقنية من شركات خارجية، لكنه قال إن وكالة المخابرات المركزية لديها شراكات قائمة مع بائعي العلامات التجارية.

وقال رامان: “نحن نستفيد من الخدمات التجارية”، مضيفًا أن وكالة المخابرات المركزية تستخدم أيضًا أدوات الذكاء الاصطناعي لمهام مثل الترجمة وتنبيه المحللين خلال ساعات العمل بالتطورات المهمة المحتملة. “نحن بحاجة إلى أن نكون قادرين على العمل بشكل وثيق مع الصناعة الخاصة لنكون قادرين على مساعدتنا ليس فقط في تقديم الخدمات والحلول الأكبر التي سمعتم عنها، ولكن أيضًا المزيد من الخدمات المتخصصة من البائعين غير التقليديين التي قد لا تفكرون فيها بالفعل “.

تكنولوجيا محفوفة بالمخاطر

هناك الكثير من الأسباب للتشكيك والقلق بشأن استخدام وكالة المخابرات المركزية للذكاء الاصطناعي.

في فبراير 2022، كشف السيناتوران رون وايدن (ديمقراطي من ولاية أوريغون) ومارتن هاينريش (ديمقراطي من ولاية نيو مكسيكو) في رسالة عامة أن وكالة المخابرات المركزية، على الرغم من منعها بشكل عام من التحقيق مع الأمريكيين والشركات الأمريكية، لديها مستودع بيانات سري وغير معلن يتضمن المعلومات التي تم جمعها عن المواطنين الأمريكيين. وفي العام الماضي، أظهر تقرير لمكتب مدير الاستخبارات الوطنية أن وكالات الاستخبارات الأمريكية، بما في ذلك وكالة المخابرات المركزية، تشتري بيانات عن الأمريكيين من وسطاء البيانات مثل LexisNexis وSayari Analytics مع القليل من الرقابة.

إذا استخدمت وكالة المخابرات المركزية الذكاء الاصطناعي في التدقيق في هذه البيانات، فمن المؤكد أن العديد من الأميركيين سيعترضون. سيكون هذا انتهاكًا واضحًا للحريات المدنية، ونظرًا للقيود التي يفرضها الذكاء الاصطناعي، يمكن أن يؤدي إلى نتائج غير عادلة بشكل خطير.

أظهرت العديد من الدراسات أن خوارزميات الجرائم التنبؤية التي تقدمها شركات مثل Geolitica يمكن تحريفها بسهولة بسبب معدلات الاعتقال وتميل إلى الإشارة إلى مجتمعات السود بشكل غير متناسب. تشير دراسات أخرى إلى أن التعرف على الوجه يؤدي إلى ارتفاع معدل الخطأ في التعرف على الأشخاص الملونين مقارنة بالأشخاص البيض.

إلى جانب التحيز، حتى أفضل الذكاء الاصطناعي اليوم يهلوس، أو يخترع حقائق وأرقام ردا على الاستفسارات. لنأخذ على سبيل المثال برنامج تلخيص الاجتماعات من ميكروسوفت، والذي ينسب أحيانًا علامات الاقتباس إلى أشخاص غير موجودين. ويمكن للمرء أن يتخيل كيف يمكن أن يصبح هذا مشكلة في العمل الاستخباراتي، حيث تكون الدقة وإمكانية التحقق أمرًا بالغ الأهمية.

كان رامان مصرا على أن وكالة المخابرات المركزية لا تمتثل لجميع القوانين الأمريكية فحسب، بل إنها “تتبع جميع المبادئ التوجيهية الأخلاقية” وتستخدم الذكاء الاصطناعي “بطريقة تخفف من التحيز”.

“أود أن أسميها نهجا مدروسا [to AI]قالت. “أود أن أقول إن النهج الذي نتبعه هو النهج الذي نريد أن يفهم فيه مستخدمونا قدر المستطاع حول نظام الذكاء الاصطناعي الذي يستخدمونه. إن بناء ذكاء اصطناعي مسؤول يعني أننا بحاجة إلى مشاركة جميع أصحاب المصلحة؛ وهذا يعني مطوري الذكاء الاصطناعي، وهذا يعني مكتب الخصوصية والحريات المدنية لدينا [and so on]”.

من وجهة نظر رامان، بغض النظر عما تم تصميم نظام الذكاء الاصطناعي للقيام به، فمن المهم أن يوضح مصممو النظام المجالات التي يمكن أن يفشل فيها. وفي دراسة حديثة، وجد باحثون من جامعة ولاية كارولينا الشمالية أن أدوات الذكاء الاصطناعي، بما في ذلك خوارزميات التعرف على الوجه والكشف عن الطلقات النارية، يتم استخدامها من قبل الشرطة التي لم تكن على دراية بالتقنيات أو عيوبها.

وفي مثال فاضح بشكل خاص على إساءة استخدام الذكاء الاصطناعي في تطبيق القانون ربما يكون ناتجًا عن الجهل، تفيد التقارير أن شرطة نيويورك استخدمت ذات مرة صور المشاهير والصور والرسومات المشوهة لإنشاء مطابقات للتعرف على الوجه على المشتبه بهم في الحالات التي لم تسفر فيها المراقبة الثابتة عن أي نتائج.

قال رامان: “يجب أن يفهم المستخدمون أي مخرجات يتم إنشاؤها بواسطة الذكاء الاصطناعي بوضوح، وهذا يعني بوضوح تصنيف المحتوى الناتج عن الذكاء الاصطناعي وتقديم تفسيرات واضحة لكيفية عمل أنظمة الذكاء الاصطناعي”. “في كل ما نقوم به في الوكالة، نحن نلتزم بمتطلباتنا القانونية، ونتأكد من أن مستخدمينا وشركائنا وأصحاب المصلحة لدينا على دراية بجميع القوانين واللوائح والمبادئ التوجيهية ذات الصلة التي تحكم استخدام أنظمة الذكاء الاصطناعي لدينا، و نحن نلتزم بكل هذه القواعد”.

ومن المؤكد أن هذا المراسل يأمل أن يكون هذا صحيحا.


اكتشاف المزيد من موقع خبرة التقني

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع خبرة التقني

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading