يريد مجلس الرقابة من Meta تحسين سياساتها حول الصور الواضحة التي ينشئها الذكاء الاصطناعي
بعد التحقيقات في كيفية تعامل ميتا مع الصور الواضحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، تحث هيئة المراقبة شبه المستقلة التابعة للشركة، مجلس الرقابة، الشركة الآن على تحسين سياساتها حول مثل هذه الصور. يريد مجلس الإدارة من Meta تغيير المصطلحات التي تستخدمها من “مهينة” إلى “غير توافقية”، ونقل سياساتها المتعلقة بهذه الصور إلى قسم “معايير مجتمع الاستغلال الجنسي” من قسم “التسلط والتحرش”.
في الوقت الحالي، تفرعت سياسات Meta المتعلقة بالصور الفاضحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي من قاعدة “فوتوشوب ذات طابع جنسي مهين” في قسم التنمر والتحرش. كما حث مجلس الإدارة شركة Meta على استبدال كلمة “photoshop” بمصطلح عام للوسائط التي تم التلاعب بها.
بالإضافة إلى ذلك، تحظر Meta الصور غير التوافقية إذا كانت “غير تجارية أو تم إنتاجها في مكان خاص”. اقترح مجلس الإدارة ألا يكون هذا البند إلزاميًا لإزالة أو حظر الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي أو تم التلاعب بها دون موافقة.
تأتي هذه التوصيات في أعقاب حالتين بارزتين حيث أدت الصور الصريحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي لشخصيات عامة والمنشورة على Instagram و Facebook إلى سقوط Meta في الماء الساخن.
تضمنت إحدى هذه الحالات صورة عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لشخصية عامة هندية وتم نشرها على موقع Instagram. أبلغ العديد من المستخدمين عن الصورة لكن Meta لم تقم بإزالتها، وفي الواقع أغلقت التذكرة في غضون 48 ساعة دون أي مراجعة أخرى. استأنف المستخدمون هذا القرار ولكن تم إغلاق التذكرة مرة أخرى. ولم تتحرك الشركة إلا بعد أن تولى مجلس الرقابة القضية، وأزال المحتوى، وحظر الحساب.
أما الصورة الأخرى التي تم إنشاؤها بواسطة الذكاء الاصطناعي فهي تشبه شخصية عامة من الولايات المتحدة وتم نشرها على فيسبوك. كان لدى Meta بالفعل الصورة في مستودع خدمة مطابقة الوسائط (MMS) الخاص بها (بنك من الصور التي تنتهك شروط الخدمة الخاصة بها والتي يمكن استخدامها لاكتشاف الصور المماثلة) بسبب تقارير الوسائط، وسرعان ما أزالت الصورة عندما قام مستخدم آخر بتحميلها. في الفيسبوك.
والجدير بالذكر أن Meta أضافت صورة الشخصية العامة الهندية إلى بنك MMS فقط بعد أن دفعها مجلس الرقابة إلى ذلك. ويبدو أن الشركة أخبرت مجلس الإدارة أن المستودع لم يكن لديه الصورة قبل ذلك الحين لأنه لم تكن هناك تقارير إعلامية حول هذه المشكلة.
وقال المجلس في مذكرته: “هذا أمر مثير للقلق لأن العديد من ضحايا الصور الحميمية العميقة ليسوا في نظر الجمهور ويضطرون إما إلى قبول انتشار صورهم غير التوافقية أو الإبلاغ عن كل حالة”.
لاحظت منظمة Breakthrough Trust، وهي منظمة هندية تقوم بحملات للحد من العنف القائم على النوع الاجتماعي عبر الإنترنت، أن هذه القضايا وسياسات ميتا لها آثار ثقافية. وفي التعليقات المقدمة إلى مجلس الرقابة، قالت بريكثرو إن الصور غير التوافقية غالبًا ما يتم التقليل منها باعتبارها قضية سرقة هوية وليس عنفًا قائمًا على النوع الاجتماعي.
“غالبًا ما يواجه الضحايا إيذاءً ثانويًا أثناء الإبلاغ عن مثل هذه الحالات في مراكز الشرطة/المحاكم (“لماذا عرضت صورتك وما إلى ذلك” حتى عندما لا تكون صورهم مثل الصور المزيفة بعمق). بمجرد وصولها إلى الإنترنت، تتجاوز الصورة النظام الأساسي المصدر بسرعة كبيرة، ومجرد إزالتها من النظام الأساسي المصدر لا يكفي لأنها تنتشر بسرعة إلى منصات أخرى، “كتبت برشا تشاركوربورتي، رئيسة الإعلام في المنظمة، إلى مجلس الرقابة.
خلال مكالمة، أخبر Charkorborty موقع TechCrunch أن المستخدمين غالبًا لا يعرفون أن تقاريرهم قد تم وضع علامة عليها تلقائيًا على أنها “تم حلها” خلال 48 ساعة، ويجب ألا يطبق Meta نفس الجدول الزمني لجميع الحالات. بالإضافة إلى ذلك، اقترحت أن تعمل الشركة أيضًا على بناء المزيد من وعي المستخدم حول مثل هذه المشكلات.
صرحت ديفيكا مالك، خبيرة سياسة النظام الأساسي التي عملت سابقًا في فريق سياسة جنوب آسيا التابع لشركة Meta، لـ TechCrunch في وقت سابق من هذا العام أن المنصات تعتمد إلى حد كبير على تقارير المستخدم لإزالة الصور غير التوافقية، والتي قد لا تكون نهجًا موثوقًا به عند معالجة الوسائط التي ينشئها الذكاء الاصطناعي. .
“وهذا يضع مسؤولية غير عادلة على عاتق المستخدم المتأثر لإثبات هويته وعدم موافقته (كما هو الحال مع سياسة ميتا). وقال مالك: “قد يصبح هذا أكثر عرضة للخطأ عندما يتعلق الأمر بالوسائط الاصطناعية، ولنقول إن الوقت المستغرق لالتقاط هذه الإشارات الخارجية والتحقق منها يمكّن المحتوى من اكتساب قوة جذب ضارة”.
قال أباراجيتا بهارتي، الشريك المؤسس لمركز الأبحاث The Quantum Hub (TQH) ومقره دلهي، إن Meta يجب أن تسمح للمستخدمين بتوفير المزيد من السياق عند الإبلاغ عن المحتوى، حيث قد لا يكونون على دراية بالفئات المختلفة لانتهاكات القواعد بموجب سياسة Meta.
“نأمل أن يتجاوز ميتا الحكم النهائي [of the Oversight Board] وقالت: “لتمكين القنوات المرنة التي تركز على المستخدم من الإبلاغ عن محتوى من هذا النوع”.
“نحن نقر بأنه لا يمكن أن يُتوقع من المستخدمين أن يكون لديهم فهم كامل للاختلاف الدقيق بين مختلف رؤساء التقارير، ونؤيد الأنظمة التي تمنع المشكلات الحقيقية من الوقوع في الشقوق بسبب الجوانب الفنية لسياسات الإشراف على المحتوى التعريفي.”
اكتشاف المزيد من موقع خبرة التقني
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.