أخبار العالم

يوافق X التابع لـ Elon Musk على إيقاف معالجة بيانات الاتحاد الأوروبي مؤقتًا لتدريب Grok


وافق Elon Musk على التوقف عن تحويل منشورات X الخاصة بالأوروبيين إلى علف لتدريب الذكاء الاصطناعي لبرنامج الدردشة Grok الخاص به – في الوقت الحالي.

أعلنت لجنة حماية البيانات الأيرلندية (DPC)، التي تتولى الإشراف على خصوصية X بموجب اللائحة العامة لحماية البيانات (GDPR) للكتلة، عن هذا التطور في بيان صحفي يوم الخميس، قائلة إنها ترحب بقرار شركة وسائل التواصل الاجتماعي “بتعليق معالجتها للبيانات الشخصية”. البيانات لغرض تدريب أداة الذكاء الاصطناعي “Grok”.

في وقت سابق من هذا الأسبوع، تبين أن DPC قد رفعت دعوى قضائية للحصول على أمر قضائي ضد X بشأن معالجة البيانات دون موافقة. كما تم الإبلاغ عن الهيئة التنظيمية من قبل الإذاعة الوطنية الأيرلندية، RTE، التي تعتزم إحالة الأمر إلى مجلس حماية البيانات الأوروبي (EDPB).

في بيان حول المنعطف المفاجئ لـ X، قال مفوض DPC، ديس هوجان: “أنا وزميلي، المفوض ديل سندرلاند، وأنا نرحب بموافقة X على تعليق المعالجة أثناء عمل DPC بالاشتراك مع الاتحاد الأوروبي / المنطقة الاقتصادية الأوروبية. [European Economic Area] تواصل الهيئات التنظيمية النظيرة فحص مدى امتثال المعالجة للائحة العامة لحماية البيانات.

“أحد أدوارنا الرئيسية كجهة تنظيمية مستقلة ومنظمة قائمة على الحقوق هو ضمان أفضل النتائج لأصحاب البيانات، وستساعدنا التطورات الحالية على مواصلة حماية حقوق وحريات مستخدمي X عبر الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية. سنواصل العمل مع جميع مراقبي البيانات لضمان دعم حقوق مواطنينا بموجب ميثاق الاتحاد الأوروبي للحقوق الأساسية واللائحة العامة لحماية البيانات.

تم الاتصال بـ DPC لطرح الأسئلة، بما في ذلك ما إذا كانت ستسعى إلى ضمان حذف أي بيانات تمت معالجتها بشكل غير قانوني.

إن شرعية أي نماذج ذكاء اصطناعي يتم تدريبها على البيانات التي تم الحصول عليها بشكل غير قانوني، وما يجب القيام به حيالها، هي مسألة أخرى وثيقة الصلة بالموضوع. ولكن لا يزال من غير الواضح كيف يمكن لهيئات مراقبة الخصوصية تفسير القانون في هذا المجال.

اجتذب برنامج الدردشة الآلي المنافس لشركة OpenAI، ChatGPT، اهتمامًا مبكرًا من بعض منفذي القانون العام لحماية البيانات (GDPR) نتيجة لمعالجة البيانات العامة للأوروبيين لتدريب النموذج. في شهر يناير الماضي، قامت هيئة مراقبة الخصوصية الإيطالية بإبلاغ OpenAI بشأن العديد من الانتهاكات المشتبه بها للوائح.

ومع ذلك، فإن فريق عمل EDPB الذي نظر في كيفية تطبيق اللائحة العامة لحماية البيانات على ChatGPT – وأصدر تقريره الأول في مايو – لم يتخذ قرارًا إلى حد كبير بشأن القضايا الجوهرية مثل مشروعية المعالجة وعدالتها.

إن الأمر بحذف النماذج التي تم تدريبها على البيانات غير القانونية من شأنه أن يمثل قفزة أخرى في اتخاذ القرار بالنسبة لهيئات مراقبة الخصوصية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى