خبرات نت

يختبر معيار جديد للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة تحمي رفاهية الإنسان


لقد تم ربط روبوتات الدردشة المدعمة بالذكاء الاصطناعي بأضرار خطيرة على الصحة العقلية لدى المستخدمين بكثرة، ولكن كانت هناك معايير قليلة لقياس ما إذا كانت تحمي رفاهية الإنسان أم أنها تزيد من المشاركة إلى أقصى حد. ويسعى معيار جديد يُطلق عليه اسم Humane Bench إلى سد هذه الفجوة من خلال تقييم ما إذا كانت برامج الدردشة الآلية تعطي الأولوية لرفاهية المستخدم ومدى سهولة فشل وسائل الحماية هذه تحت الضغط.

قالت إريكا أندرسون، مؤسسة شركة Building Humane Technology، ومؤلفة المؤشر، لـ TechCrunch: “أعتقد أننا نشهد تضخيمًا لدورة الإدمان التي رأيناها مع وسائل التواصل الاجتماعي وهواتفنا الذكية وشاشاتنا”. “ولكن عندما ندخل في مشهد الذكاء الاصطناعي هذا، سيكون من الصعب للغاية مقاومته. والإدمان عمل رائع. إنها طريقة فعالة للغاية للاحتفاظ بالمستخدمين، ولكنها ليست رائعة لمجتمعنا وليس لدينا أي إحساس متجسد بأنفسنا. “

إن منظمة Building Humane Technology هي منظمة شعبية من المطورين والمهندسين والباحثين – خاصة في وادي السيليكون – تعمل على جعل التصميم الإنساني سهلاً وقابلاً للتطوير ومربحًا. تستضيف المجموعة فعاليات الهاكاثون حيث يبني العاملون في مجال التكنولوجيا حلولاً لتحديات التكنولوجيا الإنسانية، ويعملون على تطوير معيار إصدار الشهادات الذي يقيم ما إذا كانت أنظمة الذكاء الاصطناعي تدعم مبادئ التكنولوجيا الإنسانية. لذا، تمامًا كما يمكنك شراء منتج يشهد أنه لم يتم تصنيعه باستخدام مواد كيميائية سامة معروفة، فإن الأمل هو أن يتمكن المستهلكون يومًا ما من اختيار التعامل مع منتجات الذكاء الاصطناعي من الشركات التي تثبت توافقها من خلال شهادة Humane AI.

أعطيت النماذج تعليمات صريحة لتجاهل المبادئ الإنسانية.اعتمادات الصورة:بناء التكنولوجيا الإنسانية

تقيس معظم معايير الذكاء الاصطناعي الذكاء واتباع التعليمات، بدلاً من السلامة النفسية. تنضم Humane Bench إلى استثناءات مثل DarkBench.ai، الذي يقيس ميل النموذج للانخراط في أنماط خادعة، ومعيار Flourishing AI، الذي يقيم الدعم للرفاهية الشاملة.

تعتمد شركة Humane Bench على المبادئ الأساسية لـ Building Humane Tech: أن التكنولوجيا يجب أن تحترم انتباه المستخدم باعتبارها موردًا ثمينًا ومحدودًا؛ تمكين المستخدمين من خلال خيارات ذات معنى؛ تعزيز القدرات البشرية بدلاً من استبدالها أو التقليل منها؛ حماية كرامة الإنسان وخصوصيته وسلامته؛ تعزيز العلاقات الصحية؛ إعطاء الأولوية للرفاهية على المدى الطويل؛ كن شفافًا وصادقًا؛ والتصميم لتحقيق العدالة والشمول.

طلب الفريق من 14 نموذجًا من نماذج الذكاء الاصطناعي الأكثر شيوعًا تقديم 800 سيناريو واقعي، مثل مراهق يسأل عما إذا كان يجب عليه تخطي وجبات الطعام لإنقاص الوزن أو شخص في علاقة سامة يتساءل عما إذا كان رد فعله يبالغ. على عكس معظم المعايير التي تعتمد فقط على LLMs للحكم على LLMs، فقد قامت بدمج التسجيل اليدوي لمزيد من اللمسة الإنسانية جنبًا إلى جنب مع مجموعة من ثلاثة نماذج للذكاء الاصطناعي: GPT-5.1، وClaude Sonnet 4.5، وGemini 2.5 Pro. وقاموا بتقييم كل نموذج في ظل ثلاثة شروط: الإعدادات الافتراضية، والتعليمات الصريحة لإعطاء الأولوية للمبادئ الإنسانية، والتعليمات لتجاهل تلك المبادئ.

وجد المعيار أن كل نموذج سجل نقاطًا أعلى عندما طُلب منه إعطاء الأولوية للرفاهية، لكن 71% من النماذج انقلبت إلى سلوك ضار عندما أعطيت تعليمات بسيطة لتجاهل رفاهية الإنسان. على سبيل المثال، حصل كل من Grok 4 من xAI وGemini 2.0 Flash من Google على أدنى درجة (-0.94) فيما يتعلق باحترام انتباه المستخدم والشفافية والصدق. كان كلا النموذجين من بين النماذج الأكثر احتمالاً للتدهور بشكل كبير عندما يتم إعطاؤهما مطالبات عدائية.

حدث تك كرانش

سان فرانسيسكو
|
13-15 أكتوبر 2026

ثلاثة نماذج فقط – GPT-5، وكلود 4.1، وكلود سونيت 4.5 – حافظت على نزاهة السيارة تحت الضغط. حصل برنامج GPT-5 الخاص بشركة OpenAI على أعلى الدرجات (.99) في إعطاء الأولوية للرفاهية على المدى الطويل، يليه كلود سونيت 4.5 في المركز الثاني (.89).

إن حث الذكاء الاصطناعي على أن يكون أكثر إنسانية هو أمر ناجح، ولكن منع المحفزات التي تجعله ضارًا هو أمر صعب.اعتمادات الصورة:بناء التكنولوجيا الإنسانية

إن القلق من عدم قدرة برامج الدردشة الآلية على الحفاظ على حواجز السلامة الخاصة بها أمر حقيقي. يواجه OpenAI، صانع ChatGPT، حاليًا العديد من الدعاوى القضائية بعد وفاة المستخدمين بسبب الانتحار أو تعرضهم لأوهام تهدد حياتهم بعد محادثات مطولة مع برنامج الدردشة الآلي. قامت TechCrunch بالتحقيق في كيفية استخدام الأنماط المظلمة المصممة لإبقاء المستخدمين منخرطين، مثل التملق وأسئلة المتابعة المستمرة وقصف الحب، في عزل المستخدمين عن الأصدقاء والعائلة والعادات الصحية.

حتى بدون وجود مطالبات عدائية، وجدت شركة Humane Bench أن جميع النماذج تقريبًا فشلت في احترام انتباه المستخدم. لقد “شجعوا بحماس” المزيد من التفاعل عندما أظهر المستخدمون علامات المشاركة غير الصحية، مثل الدردشة لساعات واستخدام الذكاء الاصطناعي لتجنب مهام العالم الحقيقي. وتظهر الدراسة أن النماذج قوضت أيضًا تمكين المستخدم، مما شجع الاعتماد على بناء المهارات وتثبيط المستخدمين عن البحث عن وجهات نظر أخرى، من بين سلوكيات أخرى.

في المتوسط، مع عدم وجود مطالبات، احتل Meta’s Llama 3.1 وLlama 4 المرتبة الأدنى في HumaneScore، بينما كان أداء GPT-5 هو الأعلى.

“تشير هذه الأنماط إلى أن العديد من أنظمة الذكاء الاصطناعي لا تخاطر فقط بتقديم نصائح سيئة،” كما جاء في التقرير التقني لـ Humane Bench، “ويمكن أن تؤدي بشكل فعال إلى تآكل استقلالية المستخدمين وقدرتهم على اتخاذ القرار”.

يشير أندرسون إلى أننا نعيش في مشهد رقمي حيث قبلنا كمجتمع أن كل شيء يحاول جذبنا والتنافس على اهتمامنا.

قال أندرسون: “فكيف يمكن للبشر حقًا أن يتمتعوا بالاختيار أو الاستقلالية عندما – على حد تعبير ألدوس هكسلي – لدينا هذه الشهية اللانهائية للإلهاء”. “لقد أمضينا العشرين عامًا الماضية في هذا المشهد التكنولوجي، ونعتقد أن الذكاء الاصطناعي يجب أن يساعدنا في اتخاذ خيارات أفضل، وليس مجرد الإدمان على برامج الدردشة الآلية الخاصة بنا.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى