خبرات نت

لا يمكن ترك حوكمة الذكاء الاصطناعي للمصالح الخاصة


إن التقرير النهائي الصادر عن الهيئة الاستشارية رفيعة المستوى التابعة للأمم المتحدة بشأن الذكاء الاصطناعي يجعل القراءة سريالية في بعض الأحيان. وتسلط الوثيقة التي تحمل عنوان “إدارة الذكاء الاصطناعي من أجل الإنسانية” الضوء على التحديات المتناقضة المتمثلة في جعل أي نوع من الحوكمة يعتمد على مثل هذه التكنولوجيا سريعة التطور والمستثمرة على نطاق واسع والمبالغ فيها بشدة.

فمن ناحية، يلاحظ التقرير ــ وهو صحيح تماما ــ أن هناك “عجزا في الحوكمة العالمية في ما يتعلق بالذكاء الاصطناعي”. ومن ناحية أخرى، تشير الهيئة الاستشارية التابعة للأمم المتحدة بجفاف إلى ما يلي: “المئات [AI] وقد تم اعتماد الأدلة والأطر والمبادئ من قبل الحكومات والشركات والاتحادات والمنظمات الإقليمية والدولية. على الرغم من أن هذا التقرير يضيف مجموعة إضافية من التوصيات إلى مجموعة حوكمة الذكاء الاصطناعي.

المشكلة الشاملة التي يسلط التقرير الضوء عليها هي أن هناك خليطًا من الأساليب التي تتمحور حول إدارة الذكاء الاصطناعي، بدلاً من أي تماسك جماعي حول ما يجب فعله بشأن التكنولوجيا القوية والغبية في نفس الوقت.

من المؤكد أن أتمتة الذكاء الاصطناعي يمكن أن تكون قوية: اضغط على الزر وستحصل على مخرجات قابلة للقياس حسب الطلب. لكن الذكاء الاصطناعي يمكن أن يكون غبيًا أيضًا، لأنه على الرغم مما يوحي به الاسم، فإن الذكاء الاصطناعي ليس ذكاءً؛ فمخرجاته هي انعكاس لمدخلاته؛ والمدخلات السيئة يمكن أن تؤدي إلى نتائج سيئة للغاية (وغير ذكية).

وإذا أضفنا مقياسًا للغباء، فإن الذكاء الاصطناعي يمكن أن يسبب مشاكل كبيرة جدًا بالفعل، كما يسلط التقرير الضوء على ذلك. على سبيل المثال، يمكن أن يؤدي ذلك إلى تضخيم التمييز أو نشر المعلومات المضللة. وكلاهما يحدث بالفعل، في جميع أنواع المجالات، على نطاق إشكالي، مما يؤدي إلى أضرار حقيقية للغاية.

لكن أولئك الذين لديهم مكاوي تجارية في نيران الذكاء الاصطناعي التوليدية التي كانت مستعرة خلال السنوات القليلة الماضية، أصبحوا مستعبدين للغاية للجانب الصعودي المحتمل لهذه التكنولوجيا لدرجة أنهم يبذلون كل ما في وسعهم للتقليل من مخاطر غباء الذكاء الاصطناعي.

وفي السنوات الأخيرة، شمل ذلك ممارسة ضغوط شديدة حول فكرة أن العالم يحتاج إلى قواعد للحماية من ما يسمى الذكاء الاصطناعي العام، أو مفهوم الذكاء الاصطناعي الذي يمكنه التفكير بنفسه، بل ويمكنه حتى أن يتفوق على البشر في التفكير. لكن هذا خيال مبهرج يهدف إلى جذب انتباه صناع السياسات وتركيز عقول المشرعين على مشاكل غير موجودة في مجال الذكاء الاصطناعي، وبالتالي تطبيع الغباء الضار لأدوات الذكاء الاصطناعي الحالية. (لذلك، فإن لعبة العلاقات العامة التي يتم لعبها تدور حول تعريف ونزع فتيل مفهوم “سلامة الذكاء الاصطناعي” من خلال جعله يعني “دعونا نقلق بشأن الخيال العلمي فقط”.)

إن التعريف الضيق لسلامة الذكاء الاصطناعي يعمل على صرف الانتباه عن الأضرار البيئية الهائلة الناجمة عن ضخ المزيد من الطاقة الحاسوبية والطاقة والمياه في بناء مراكز بيانات كبيرة بما يكفي لإطعام هذا الوحش الجديد الشره. المناقشات حول ما إذا كان بإمكاننا الاستمرار في توسيع نطاق الذكاء الاصطناعي بهذه الطريقة لا تحدث على أي مستوى عال – ولكن ربما ينبغي أن تحدث؟

يعمل قطاع AGI أيضًا على توجيه المحادثة لتخطي عدد لا يحصى من القضايا القانونية والأخلاقية المرتبطة بتطوير واستخدام أدوات الأتمتة المدربة على معلومات الآخرين دون إذنهم. الوظائف وسبل العيش على المحك. وحتى الصناعات بأكملها. وكذلك حقوق الأفراد وحرياتهم.

كلمات مثل “حقوق الطبع والنشر” و”الخصوصية” تخيف مطوري الذكاء الاصطناعي أكثر بكثير من المخاطر الوجودية المزعومة للذكاء الاصطناعي العام لأن هؤلاء أشخاص أذكياء لم يفعلوا ذلك. في الحقيقة فقدت الاتصال بالواقع.

لكن أولئك الذين لديهم مصلحة راسخة في توسيع نطاق الذكاء الاصطناعي يختارون التركيز فقط على الجانب الإيجابي المحتمل لابتكاراتهم من أجل تقليل تطبيق أي “حواجز حماية” (لاستخدام الاستعارة المبسطة للاختيار عندما يضطر خبراء التكنولوجيا أخيرًا إلى تطبيق حدود على تقنياتهم). ) تقف في طريق تحقيق أرباح أكبر.

ومع الخصومات الجيوسياسية والصورة الاقتصادية العالمية القاتمة، غالبًا ما تكون حكومات الدول القومية على استعداد تام للانضمام إلى ضجيج الذكاء الاصطناعي ومعاركه، والضغط من أجل قدر أقل من الحوكمة على أمل أن يساعدهم ذلك في توسيع نطاق أبطال الذكاء الاصطناعي الوطنيين.

وفي ظل هذه الخلفية المنحرفة، فهل من المستغرب أن تظل حوكمة الذكاء الاصطناعي في حالة من الفوضى المربكة والمتشابكة بشكل رهيب؟ وحتى في الاتحاد الأوروبي، حيث تبنى المشرعون في وقت سابق من هذا العام إطارًا قائمًا على المخاطر لتنظيم أقلية من تطبيقات الذكاء الاصطناعي، فإن أعلى الأصوات التي تناقش هذا الجهد التاريخي لا تزال تدين وجوده وتزعم أن القانون يقضي بالهلاك على الاتحاد الأوروبي. فرص الابتكار المحلي. وهم يفعلون ذلك حتى بعد تخفيف القانون بعد ضغوط سابقة من صناعة التكنولوجيا (بقيادة فرنسا، مع وضع مصالحها على مصالح ميسترال، وأملها في الحصول على بطل وطني لـ GenAI).

دفعة جديدة لتحرير قوانين الخصوصية في الاتحاد الأوروبي

ولا تتوقف المصالح الخاصة عند هذا الحد أيضاً. لدينا الآن شركة ميتا، المالكة لفيسبوك وإنستغرام – التي تحولت إلى مطور كبير للذكاء الاصطناعي – تمارس ضغوطًا علنية لتحرير قوانين الخصوصية الأوروبية لإزالة القيود المفروضة على كيفية استخدام معلومات الأشخاص لتدريب الذكاء الاصطناعي. ألن يخلص أحد شركة ميتا من هذا التنظيم المضطرب لحماية البيانات حتى تتمكن من تجريد الأوروبيين من ثقافتهم من أجل الربح الإعلاني؟

أحدث خطاب مفتوح لها للضغط ضد اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR)، والتي تمت كتابتها في وول ستريت جورنال، يتواصل مع مجموعة من الشركات التجارية العملاقة الأخرى المستعدة أيضًا لتحرير القيود التنظيمية من أجل الربح، بما في ذلك إريكسون وسبوتيفاي وساب.

وبحسب ما ورد تشير الرسالة إلى أن “أوروبا أصبحت أقل قدرة على المنافسة وأقل ابتكارًا مقارنة بالمناطق الأخرى، وهي الآن تخاطر بالتخلف أكثر في عصر الذكاء الاصطناعي بسبب اتخاذ القرارات التنظيمية غير المتسقة”.

لدى Meta تاريخ طويل في انتهاك قانون الخصوصية في الاتحاد الأوروبي – على سبيل المثال، فرض أغلبية أكبر عشر غرامات على الإطلاق بموجب اللائحة العامة لحماية البيانات (GDPR) حتى الآن، وتكديس غرامات بمليارات الدولارات – لذلك لا ينبغي حقًا أن تكون نموذجًا لأولويات وضع القوانين. . ومع ذلك، عندما يتعلق الأمر بالذكاء الاصطناعي، ها نحن ذا! بعد أن انتهكنا العديد من قوانين الاتحاد الأوروبي، يبدو أنه من المفترض أن نستمع إلى أفكار ميتا لإزالة عقبة وجود قوانين يجب انتهاكها في المقام الأول؟ هذا هو نوع التفكير السحري الذي يمكن أن يثيره الذكاء الاصطناعي.

لكن الشيء المخيف حقًا هو أن هناك خطرًا من أن يستنشق المشرعون هذه الدعاية ويسلمون أدوات السلطة لأولئك الذين يريدون أتمتة كل شيء، مما يضع إيمانًا أعمى في إله الحجم بلا رأس على أمل أن يحقق الذكاء الاصطناعي الرخاء الاقتصادي للجميع بشكل سحري.

إنها استراتيجية – إذا كان بإمكاننا حتى أن نطلق عليها ذلك – تتجاهل تمامًا حقيقة أن العقود العديدة الأخيرة من التطور الرقمي (قليل التنظيم للغاية) قد حققت العكس تمامًا: تركيز مذهل للثروة والسلطة امتصته حفنة من الثروات الهائلة. المنصات – شركات التكنولوجيا الكبرى.

من الواضح أن عمالقة المنصات يريدون تكرار الحيلة مع الذكاء الاصطناعي الكبير. لكن صناع السياسات يخاطرون بالسير بلا وعي في المسارات التي تخدم مصالحهم الذاتية والتي أوصى بها لهم جيشها من جماعات الضغط السياسية التي حصلت على مكافآت سخية. هذا ليس قريبًا من معركة عادلة – حتى لو كانت معركة على الإطلاق.

من المؤكد أن الضغوط الاقتصادية تدفع الكثير من البحث عن الذات في أوروبا في الوقت الحالي. تقرير طال انتظاره صدر في وقت سابق من هذا الشهر من قبل الاقتصادي الإيطالي ماريو دراجي حول موضوع لم يكن حساسًا على الإطلاق، وهو مستقبل القدرة التنافسية الأوروبية، يثير غضب “الأعباء التنظيمية” المفروضة ذاتيًا والتي توصف أيضًا على وجه التحديد بأنها “تدمير الذات بالنسبة لأولئك الذين هم في وضع سيء للغاية”. القطاعات الرقمية”.

وبالنظر إلى توقيت رسالة ميتا المفتوحة، فمن المؤكد أنها تهدف إلى الوصول إلى نفس النتيجة. لكن هذا ليس مفاجئًا: إن شركة ميتا والعديد من الشركات الأخرى التي تضيف توقيعاتها إلى هذه الحملة لتحرير قوانين الخصوصية في الاتحاد الأوروبي هي من بين قائمة طويلة من الشركات التي استشارها دراجي مباشرة في تقريره. (وفي الوقت نفسه، كما أشار آخرون، فإن قائمة الإفصاح للمساهمين في مجلة الخبير الاقتصادي لا تتضمن أي جماعات للحقوق الرقمية أو جماعات حقوق الإنسان، باستثناء مجموعة المستهلكين BEUC).

توصيات من الفريق الاستشاري التابع للأمم المتحدة بشأن الذكاء الاصطناعي

إن عدم التماثل في المصالح التي تدفع تبني الذكاء الاصطناعي في حين تسعى في الوقت نفسه إلى التقليل من جهود الحوكمة وتمييعها، يجعل من الصعب أن نرى كيف يمكن أن ينشأ إجماع عالمي حقيقي حول كيفية السيطرة على حجم الذكاء الاصطناعي وغبائه. لكن المجموعة الاستشارية للذكاء الاصطناعي التابعة للأمم المتحدة لديها بعض الأفكار القوية إذا كان أي شخص على استعداد للاستماع إليها.

تتضمن توصيات التقرير إنشاء لجنة علمية دولية مستقلة لمسح قدرات الذكاء الاصطناعي والفرص والمخاطر والشكوك وتحديد المجالات التي تحتاج إلى مزيد من البحث مع التركيز على المصلحة العامة (وإن كان من حسن الحظ العثور على أكاديميين ليسوا مدرجين بالفعل في كشوف مرتبات شركات الذكاء الاصطناعي الكبرى). . وهناك توصية أخرى وهي إجراء حوارات حكومية دولية حول الذكاء الاصطناعي مرتين سنويًا على هامش اجتماع الأمم المتحدة الحالي لتبادل أفضل الممارسات وتبادل المعلومات والضغط من أجل المزيد من قابلية التشغيل البيني الدولي بشأن الحوكمة. ويشير التقرير أيضًا إلى تبادل معايير الذكاء الاصطناعي الذي من شأنه أن يحتفظ بسجل للتعاريف ويعمل على تعزيز تنسيق المعايير على المستوى الدولي.

وتقترح هيئة الأمم المتحدة أيضًا إنشاء ما تسميه “شبكة تنمية قدرات الذكاء الاصطناعي” لتجميع الخبرات والموارد لدعم تطوير حوكمة الذكاء الاصطناعي داخل الحكومات ومن أجل المصلحة العامة؛ وكذلك إنشاء صندوق عالمي للذكاء الاصطناعي لمعالجة الفجوات الرقمية التي يهدد التوزيع غير العادل لتكنولوجيا الأتمتة بتوسيع نطاقها بشكل كبير.

وفيما يتعلق بالبيانات، يقترح التقرير إنشاء ما يسميه “إطار بيانات الذكاء الاصطناعي العالمي” لوضع تعريفات ومبادئ تحكم بيانات التدريب، بما في ذلك بهدف ضمان التنوع الثقافي واللغوي. ويجب أن تضع الجهود معايير مشتركة حول مصدر البيانات واستخدامها – لضمان “المساءلة الشفافة والقائمة على الحقوق عبر الولايات القضائية”.

وتوصي هيئة الأمم المتحدة أيضًا بإنشاء صناديق بيانات وآليات أخرى تقترح أنها يمكن أن تساعد في تعزيز نمو الذكاء الاصطناعي دون المساس بإدارة المعلومات، مثل “الأسواق العالمية المُدارة جيدًا لتبادل البيانات مجهولة المصدر لتدريب نماذج الذكاء الاصطناعي” وعبر “الاتفاقيات النموذجية”. للسماح بالوصول عبر الحدود إلى البيانات.

التوصية النهائية هي أن تنشئ الأمم المتحدة مكتبًا للذكاء الاصطناعي داخل الأمانة العامة ليكون بمثابة هيئة تنسيقية، ويقدم تقاريره إلى الأمين العام لتقديم الدعم والمشاركة في التوعية وتقديم المشورة للأمين العام للأمم المتحدة. وهناك شيء واحد واضح: الذكاء الاصطناعي سيتطلب تعبئة هائلة للجهود والتنظيم والكدح إذا أردنا تجنب المصالح الخاصة التي تحدد أجندة الحوكمة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى