تطلق NIST منصة جديدة لتقييم الذكاء الاصطناعي التوليدي
أعلن المعهد الوطني للمعايير والتكنولوجيا (NIST)، وهو وكالة وزارة التجارة الأمريكية التي تعمل على تطوير واختبار التكنولوجيا للحكومة الأمريكية والشركات والجمهور الأوسع، يوم الاثنين عن إطلاق NIST GenAI، وهو برنامج جديد يقوده NIST لتقييم النتائج التوليدية تقنيات الذكاء الاصطناعي، بما في ذلك الذكاء الاصطناعي المولد للنصوص والصور.
منصة مصممة لتقييم أشكال مختلفة من تكنولوجيا الذكاء الاصطناعي التوليدية، ستقوم NIST GenAI بإصدار معايير، والمساعدة في إنشاء أنظمة الكشف عن “أصالة المحتوى” (أي التحقق من التزييف العميق) وتشجيع تطوير البرامج لاكتشاف مصدر المعلومات المزيفة أو المضللة، كما يوضح NIST على موقع NIST GenAI الذي تم إطلاقه حديثًا وفي بيان صحفي.
وجاء في البيان الصحفي: “سيصدر برنامج NIST GenAI سلسلة من مشكلات التحدي المصممة لتقييم وقياس قدرات وقيود تقنيات الذكاء الاصطناعي التوليدية”. “سيتم استخدام هذه التقييمات لتحديد الاستراتيجيات لتعزيز سلامة المعلومات وتوجيه الاستخدام الآمن والمسؤول للمحتوى الرقمي.”
أول مشروع لـ NIST GenAI هو دراسة تجريبية لبناء أنظمة يمكنها أن تحدد بشكل موثوق الفرق بين الوسائط التي أنشأها الإنسان والوسائط التي أنشأها الذكاء الاصطناعي، بدءًا من النص. (في حين أن العديد من الخدمات تدعي اكتشاف التزييف العميق، فقد أظهرت الدراسات – واختباراتنا الخاصة – أنها غير موثوقة، خاصة عندما يتعلق الأمر بالنصوص). يدعو NIST GenAI فرقًا من الأوساط الأكاديمية والصناعة ومختبرات الأبحاث لتقديم إما “المولدات” – أنظمة الذكاء الاصطناعي لإنشاء المحتوى – أو أنظمة “التمييز” – التي تحاول تحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
يجب على المولدين في الدراسة إنشاء ملخصات مقدمة للموضوع ومجموعة من المستندات، بينما يجب على القائمين على التمييز اكتشاف ما إذا كان ملخص معين مكتوبًا بالذكاء الاصطناعي أم لا. ولضمان العدالة، ستوفر NIST GenAI البيانات اللازمة لتدريب المولدين والمميزين؛ لن يتم قبول الأنظمة المدربة على البيانات المتاحة للعامة، بما في ذلك على سبيل المثال لا الحصر النماذج المفتوحة مثل Meta’s Llama 3.
سيبدأ التسجيل للبرنامج التجريبي في الأول من مايو، ومن المقرر نشر النتائج في فبراير 2025.
يأتي إطلاق NIST GenAI – والدراسة التي تركز على التزييف العميق – مع نمو التزييف العميق بشكل كبير.
وفقًا لبيانات من Clarity، وهي شركة للكشف عن التزييف العميق، تم إنشاء المزيد من التزييف العميق بنسبة 900% هذا العام مقارنة بالإطار الزمني نفسه من العام الماضي. إنه يسبب إنذارًا، وهذا أمر مفهوم. أ مؤخرًا تصويت وجدت دراسة من YouGov أن 85% من الأمريكيين قالوا إنهم يشعرون بالقلق إزاء انتشار التزييف العميق المضلل عبر الإنترنت.
يعد إطلاق NIST GenAI جزءًا من استجابة NIST للأمر التنفيذي للرئيس جو بايدن بشأن الذكاء الاصطناعي، والذي وضع قواعد تتطلب شفافية أكبر من شركات الذكاء الاصطناعي حول كيفية عمل نماذجها ووضع مجموعة كبيرة من المعايير الجديدة، بما في ذلك تصنيف المحتوى الناتج عن الذكاء الاصطناعي. .
إنه أيضًا أول إعلان متعلق بالذكاء الاصطناعي من NIST بعد تعيين بول كريستيانو، الباحث السابق في OpenAI، في معهد سلامة الذكاء الاصطناعي التابع للوكالة.
كان كريستيانو خيارًا مثيرًا للجدل بسبب آرائه “المتشعبة”. لقد توقع ذات مرة أن “هناك فرصة بنسبة 50% لانتهاء تطوير الذكاء الاصطناعي [humanity’s destruction]ويقال إن النقاد – بما في ذلك العلماء داخل NIST – يخشون أن كريستيانو قد يشجع معهد سلامة الذكاء الاصطناعي على التركيز على “سيناريوهات خيالية” بدلاً من المخاطر الواقعية الأكثر إلحاحًا من الذكاء الاصطناعي.
تقول NIST أن NIST GenAI سترشد عمل معهد سلامة الذكاء الاصطناعي.