وكالة بريطانية تطلق أدوات لاختبار سلامة نماذج الذكاء الاصطناعي
أصدر معهد السلامة في المملكة المتحدة، وهو هيئة سلامة الذكاء الاصطناعي التي تم إنشاؤها مؤخرًا في المملكة المتحدة، مجموعة أدوات مصممة “لتعزيز سلامة الذكاء الاصطناعي” من خلال تسهيل الأمر على الصناعة والمنظمات البحثية والأوساط الأكاديمية لتطوير تقييمات الذكاء الاصطناعي.
تهدف مجموعة الأدوات التي تسمى Inspect – المتوفرة بموجب ترخيص مفتوح المصدر، وتحديدًا ترخيص MIT – إلى تقييم قدرات معينة لنماذج الذكاء الاصطناعي، بما في ذلك المعرفة الأساسية للنماذج والقدرة على التفكير، وإنشاء درجة بناءً على النتائج.
وفي بيان صحفي أعلن عن الأخبار يوم الجمعة، ادعى معهد السلامة أن Inspect تمثل “المرة الأولى التي يتم فيها إطلاق منصة اختبار سلامة الذكاء الاصطناعي والتي تقودها هيئة مدعومة من الدولة للاستخدام على نطاق أوسع”.
وقال إيان هوغارث، رئيس معهد السلامة، في بيان: “إن التعاون الناجح في اختبار سلامة الذكاء الاصطناعي يعني وجود نهج مشترك وسهل الوصول إليه في التقييمات، ونأمل أن يكون Inspect لبنة أساسية”. “نأمل أن نرى مجتمع الذكاء الاصطناعي العالمي يستخدم Inspect ليس فقط لتنفيذ اختبارات السلامة النموذجية الخاصة بهم، ولكن للمساعدة في التكيف والبناء على النظام الأساسي مفتوح المصدر حتى نتمكن من إنتاج تقييمات عالية الجودة في جميع المجالات.”
كما كتبنا من قبل، فإن معايير الذكاء الاصطناعي صعبة – لأسباب ليس أقلها أن نماذج الذكاء الاصطناعي الأكثر تطورًا اليوم هي عبارة عن صناديق سوداء تكون بنيتها التحتية وبيانات التدريب والتفاصيل الرئيسية الأخرى عبارة عن تفاصيل يتم الاحتفاظ بها طي الكتمان من قبل الشركات التي تقوم بإنشائها. إذًا كيف تتعامل شركة Inspect مع هذا التحدي؟ من خلال كونها قابلة للتوسيع والتوسيع إلى تقنيات الاختبار الجديدة، بشكل أساسي.
يتكون Inspect من ثلاثة مكونات أساسية: مجموعات البيانات، وأدوات الحل، والهدافين. توفر مجموعات البيانات عينات لاختبارات التقييم. يقوم المحلولون بعمل إجراء الاختبارات. ويقوم المصححون بتقييم عمل الحلول ويجمعون الدرجات من الاختبارات إلى مقاييس.
يمكن تعزيز مكونات Inspect المضمنة عبر حزم الطرف الثالث المكتوبة بلغة Python.
في منشور على موقع X، وصفت ديبورا راج، زميلة الأبحاث في موزيلا والمتخصصة في أخلاقيات الذكاء الاصطناعي، Inspect بأنه “شهادة على قوة الاستثمار العام في الأدوات مفتوحة المصدر لمساءلة الذكاء الاصطناعي”.
طرح كليمنت ديلانجو، الرئيس التنفيذي لشركة Hugging Face الناشئة للذكاء الاصطناعي، فكرة دمج Inspect مع مكتبة نماذج Hugging Face أو إنشاء لوحة صدارة عامة تتضمن نتائج تقييمات مجموعة الأدوات.
يأتي إصدار Inspect بعد أن أطلقت وكالة حكومية تابعة للولايات المتحدة – المعهد الوطني للمعايير والتكنولوجيا (NIST) – NIST GenAI، وهو برنامج لتقييم العديد من تقنيات الذكاء الاصطناعي التوليدية بما في ذلك الذكاء الاصطناعي المولد للنصوص والصور. تخطط NIST GenAI لإصدار معايير، والمساعدة في إنشاء أنظمة للكشف عن صحة المحتوى وتشجيع تطوير البرامج لاكتشاف المعلومات المزيفة أو المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
وفي أبريل، أعلنت الولايات المتحدة والمملكة المتحدة عن شراكة لتطوير اختبارات نماذج الذكاء الاصطناعي المتقدمة بشكل مشترك، في أعقاب الالتزامات التي تم الإعلان عنها في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة في بلتشلي بارك في نوفمبر من العام الماضي. وكجزء من التعاون، تعتزم الولايات المتحدة إطلاق معهد سلامة الذكاء الاصطناعي الخاص بها، والذي سيكون مكلفًا على نطاق واسع بتقييم المخاطر الناجمة عن الذكاء الاصطناعي والذكاء الاصطناعي التوليدي.