أخبار العالم

كان على هذا المؤسس أن يدرب الذكاء الاصطناعي الخاص به على عدم خداع الناس


كان فلو كريفيلو يراقب مخرجات مساعدي الذكاء الاصطناعي الذين تصنعهم شركته ليندي عندما لاحظ شيئًا غريبًا. طلبت عميلة جديدة من مساعدتها Lindy AI تقديم فيديو تعليمي من شأنه أن يساعدها بشكل أفضل على فهم كيفية استخدام النظام الأساسي، واستجابت Lindy بالمثل – عندها علمت Crivello بوجود خطأ ما. لا يوجد فيديو تعليمي.

“لقد رأينا هذا وقلنا: “حسنًا، ما نوع الفيديو الذي أرسله؟” وقال كريفيلو لـ TechCrunch: “ثم قلنا، “أوه، هذه مشكلة”.

كان الفيديو الذي أرسله الذكاء الاصطناعي إلى العميل هو الفيديو الموسيقي لأغنية البوب ​​الراقصة لريك آستلي عام 1987 بعنوان “Never Gonna Give You Up”. بعبارات مألوفة أكثر: تم خداع العميل. بواسطة الذكاء الاصطناعي.

Rickrolling عبارة عن ميمات الطعم والتبديل التي يزيد عمرها عن خمسة عشر عامًا. في إحدى الحوادث التي أدت إلى انتشار الميم، أصدرت Rockstar Games مقطعًا دعائيًا لـ “Grand Theft Auto IV” على موقعها على الإنترنت، لكن حركة المرور كانت هائلة جدًا لدرجة أن الموقع تعطل. تمكن بعض الأشخاص من تنزيل الفيديو ونشره على مواقع أخرى مثل YouTube، ومشاركة الروابط حتى يتمكن الأشخاص من مشاهدة المقطع الدعائي. لكن أحد مستخدمي 4chan قرر إجراء مزحة ومشاركة الرابط الخاص بأغنية “Never Gonna Give You Up” لريك آستلي. وبعد مرور سبعة عشر عامًا، لا يزال الناس يخدعون أصدقائهم من خلال مشاركة أغنية Astley في لحظات غير مناسبة – والآن، حقق الفيديو الموسيقي أكثر من 1.5 مليار مشاهدة على YouTube.

هذه المزحة على الإنترنت منتشرة في كل مكان لدرجة أن نماذج اللغات الكبيرة مثل ChatGPT، التي تشغل ليندي، قد التقطتها حتمًا.

قال كريفيلو: “الطريقة التي تعمل بها هذه النماذج هي أنها تحاول التنبؤ بالتسلسل التالي الأكثر احتمالاً للنص”. “لذلك يبدأ الأمر بقول: “أوه، سأرسل لك مقطع فيديو!” إذن ما هو الأرجح بعد ذلك؟ يوتيوب.كوم. ثم ما الأرجح بعد ذلك؟

أخبر كريفيلو موقع TechCrunch أنه من بين ملايين الردود، تمكنت ليندي من جذب العملاء مرتين فقط. ومع ذلك، كان الخطأ ضروريا للتصحيح.

“الشيء الرائع حقًا في هذا العصر الجديد للذكاء الاصطناعي هو أنه لتصحيحه، كل ما كان علي فعله هو إضافة سطر لما نسميه موجه النظام – وهو الموجه المضمن في كل Lindy – وهو يشبه، لا” قال: “لا تعبث بالناس”.

ويثير خطأ ليندي تساؤلات حول مقدار ثقافة الإنترنت التي سيتم إدراجها في نماذج الذكاء الاصطناعي، حيث يتم تدريب هذه النماذج غالبًا على مساحات كبيرة من الويب. إن حركة ليندي العرضية لافتة للنظر بشكل خاص لأن الذكاء الاصطناعي أعاد إنتاج سلوك المستخدم المحدد هذا بشكل عضوي، مما أدى إلى الهلوسة. لكن آثار الفكاهة على الإنترنت تتسرب إلى الذكاء الاصطناعي بطرق أخرى، وهو ما تعلمته جوجل بالطريقة الصعبة عندما قامت بترخيص بيانات ريديت لتدريب الذكاء الاصطناعي الخاص بها. كمركز للمحتوى الذي ينشئه المستخدمون – ومعظمه ساخر – انتهى الذكاء الاصطناعي من Google بإخبار المستخدم أنه يمكنك جعل الجبن يلتصق بشكل أفضل بعجينة البيتزا عن طريق إضافة الغراء.

قال كريفيلو: “في حالة جوجل، لم يكن الأمر مجرد اختلاق أشياء”. “لقد كان يعتمد على المحتوى، لكن المحتوى كان سيئًا.”

مع التحسن السريع في LLMs، يعتقد كريفيلو أننا لن نرى الكثير من الزلات مثل هذه في المستقبل. بالإضافة إلى ذلك، يقول كريفيلو إن تصحيح هذه الحوادث أصبح أسهل من أي وقت مضى. في الأيام الأولى لشركة Lindy، إذا لم يتمكن أحد مساعدي الذكاء الاصطناعي من إكمال المهمة التي طلبها المستخدم، فسيقول الذكاء الاصطناعي إنه يعمل عليها، لكنه لن يقوم بتسليم المنتج أبدًا. (ومن الغريب أن هذا يبدو إنسانيًا جدًا.)

قال كريفيلو: “كان من الصعب جدًا علينا تصحيح هذه المشكلة”. “ولكن عندما ظهر GPT-4، أضفنا مطالبة مثل: “إذا طلب منك المستخدم القيام بشيء لا تستطيع القيام به، فما عليك سوى إخباره أنك لا تستطيع القيام بذلك”. وهذا ما أصلح الأمر.”

في الوقت الحالي، الخبر السار هو أن العميل الذي حصل على خدعة ربما لا يعرف ذلك.

قال: “لا أعرف حتى أن العميل قد رأى ذلك”. “تابعنا الأمر على الفور قائلين: “أوه، هذا هو الرابط الصحيح للفيديو”، ولم يقل العميل أي شيء عن الرابط الأول”.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى