Tech

ميتا توقف خططها لتدريب الذكاء الاصطناعي باستخدام بيانات المستخدمين الأوروبيين ، تماشيا مع الضغط التنظيمي

\n

أكدت ميتا أنها ستوقف خططها للبدء في تدريب أنظمتها الذكية باستخدام بيانات من مستخدميها في الاتحاد الأوروبي والمملكة المتحدة.

\n\n

يأتي هذا القرار ردا على المعارضة من اللجنة الأيرلندية لحماية البيانات (DPC) ، وهي الهيئة الرقابية الرئيسية لميتا في الاتحاد الأوروبي ، التي تعمل نيابة عن العديد من سلطات حماية البيانات في البلوك. طلبت مكتب مفوض المعلومات في المملكة المتحدة (ICO) أيضًا أن توقف ميتا خططها حتى تتمكن من رد توجيهاتها.

\n\n

“ترحب لجنة الحماية الأيرلندية للبيانات بقرار ميتا بتعليق خططها لتدريب نموذجها اللغوي الكبير باستخدام المحتوى العام الذي يتم مشاركته من قبل الكبار على فيسبوك وإنستغرام في جميع أنحاء الاتحاد الأوروبي / منطقة التجارة الحرة الأوروبية" وفقًا لما ذكر في بيان يوم الجمعة. تابعت DPC فعاليات Meta. ستستمر DPC وبالتعاون مع زملائها من سلطات الاتحاد الأوروبي لحماية البيانات في التفاعل مع Meta بشأن هذا الأمر.

\n\n

بينما تستخدم ميتا بالفعل المحتوى الذي يتم إنشاؤه من قبل المستخدمين لتدريب ذكائها الاصطناعي في أسواق مثل الولايات المتحدة ، فإن تشدد الاتحاد الأوروبي على لائحة حماية البيانات العامة (GDPR) قد خلق عقبات أمام ميتا - وغيرها من الشركات - التي تسعى إلى تحسين أنظمتها الذكية ، بما في ذلك النماذج اللغوية الكبيرة التي تستخدم مواد تدريب المستخدمين الذين تم إنتاجها.

\n\n

ومع ذلك ، بدأت ميتا في الشهر الماضي إبلاغ المستخدمين عن تغيير قادم في سياسة الخصوصية لديها ، والتي قالت إنها ستمنحها الحق في استخدام المحتوى العام على فيسبوك وإنستغرام لتدريب ذكائها الاصطناعي ، بما في ذلك المحتوى من التعليقات والتفاعلات مع الشركات وتحديثات الحالة والصور والتسميات المرتبطة بها. زعمت الشركة أنها تحتاج إلى فعل ذلك لعكس "اللغات والجغرافيا والإشارات الثقافية المختلفة للناس في أوروبا".

\n\n

كان من المتوقع دائمًا أن تضع الجهات التنظيمية على الأقل توقفًا مؤقتًا لتغييرات ميتا المخطط لها ، خاصة بالنظر إلى مدى صعوبة جعلت الشركة على المستخدمين "الانسحاب" من استخدام بياناتهم. وقالت الشركة إنها أرسلت أكثر من 2 مليار إشعار لإعلام المستخدمين بالتغييرات القادمة ، ولكن على عكس الرسائل العامة الهامة الأخرى التي تُعرض في أعلى تغذية الأخبار للمستخدمين ، مثل تحفيزات للخروج والتصويت ، كانت هذه الإشعارات تظهر بجانب الإشعارات القياسية للمستخدمين: أعياد ميلاد الأصدقاء ، إشعارات وسم الصور ، إعلانات المجموعات والمزيد. لذلك ، إذا لم يتحقق شخص ما بانتظام من إشعاراتهم ، كان من السهل جدًا تفويت هذا الموضوع.

\n\n

وأولئك الذين شاهدوا الإشعار لم يكونوا يعرفون تلقائيًا أن هناك وسيلة للاعتراض أو اختيار الخروج ، حيث يدعوهم ببساطة إلى النقر لمعرفة كيف سيرتاد Meta معلوماتهم. لم يكن هناك شيء يدل على أن هناك خيارًا هنا.

\n\n
ميتا: إشعار الذكاء الاصطناعي
حقوق الصورة: ميتا

علاوة على ذلك ، كان المستخدمون في الواقع لا يمكنهم "الانسحاب" من استخدام بياناتهم. بدلاً من ذلك ، كان عليهم تقديم استمارة اعتراض حيث قدموا حججهم لما لم يرغبوا في استخدام بياناتهم - كان من اختصاص Meta كاملًا ما إذا تم تكريم هذا الطلب ، على الرغم من أن الشركة قالت إنها ستلبي كل طلب.

\n\n
نموذج الاعتراض على فيسبوك
حقوق الصورة: ميتا / لقطة شاشة

وعلى الرغم من أن نموذج الاعتراض كان مرتبطًا من الإشعار نفسه ، إلا أن أي شخص يبحث نشطًا عن نموذج الاعتراض في إعدادات حسابه كان عليه القيام بعمل إضافي.

\n\n

على موقع فيسبوك ، كان عليهم أن ينقروا أولاً على صورتهم الشخصية في أعلى اليمين ؛ اضغط على 'الإعدادات والخصوصية' ؛ اضغط على مركز الخصوصية ؛ انتقل إلى القسم 'Generative AI at Meta' ؛ انتقل إلى الأسفل مرة أخرى بعد مجموعة من الروابط إلى قسم يحمل عنوان 'موارد أكثر'. أول رابط تحت هذا القسم يسمى "كيفية استخدام ميتا المعلومات لنماذج AI Generative" ، وكان عليهم قراءة حوالي 1100 كلمة قبل الوصول إلى رابط متكتم لنموذج الاعتراض للشركة. كانت القصة مشابهة في تطبيق فيسبوك المحمول.

\n\n
رابط "الحق في الاعتراض" للنموذج
حقوق الصورة: ميتا / لقطة شاشة
\n
\n\n

في وقت سابق هذا الأسبوع ، عندما سئل عن سبب تطلب هذه العملية من المستخدمين تقديم اعتراض بدلاً من اختيار الانضمام ، أشار مدير اتصالات السياسات في ميتا مات بولارد إلى مشاركته السابقة عبر مدونة الشركة ، التي تقول: "نحن نعتقد أن هذا الأساس القانوني ['المصالح المشروعة'] هو التوازن الأنسب لمعالجة البيانات العامة بالمقياس اللازم لتدريب نماذج الذكاء الاصطناعي ، مع احترام حقوق الأشخاص."

\n\n

لترجمة هذا ، فإن عملية الاختيار تقننيًا قد لا تنشأ من "المقياس" المناسب من حيث الأشخاص الذين يرغبون في تقديم بياناتهم. لذلك كان أفضل طريقة لتجاوز هذا هو إصدار إشعار واحد من بين إشعارات المستخدمين الأخرى ؛ إخفاء نموذج الاعتراض وراء نصف دولارات النقر لأولئك الذين يبحثون عن "الانضمام إلى الانسحاب" بشكل مستقل ؛ ثم جعلهم يبرر اعتراضهم ، بدلاً من منحهم اختيار الانضمام مباشرة.

\n\n

في مدونة محدثة يوم الجمعة ، كتب ستيفانو فراتا ، المدير العالمي للمشاركة العالمية في السياسات الخاصة بالخصوصية في ميتا ، أنه "مصدوم" بالطلب الذي تلقاه من DPC.

\n\n

“هذه خطوة إلى الوراء للابتكار الأوروبي والمنافسة في تطوير الذكاء الاصطناعي وتأخيرات إضافية في جلب فوائد الذكاء الاصطناعي للناس في أوروبا ،" كتب فراتا. "نحن ما زلنا على ثقة عالية أن نهجنا يتوافق مع القوانين واللوائح الأوروبية. تدريب الذكاء الاصطناعي ليس فريدًا من خدماتنا ، ونحن أكثر شفافية من العديد من نظرائنا في الصناعة."

\n\n

سباق الذراع الذكية

\n\n

كل هذا ليس جديدًا ، وميتا في سباق ذراع للذكاء الاصطناعي الذي جذب انتباهًا ضخمًا إلى أسلحته الضخمة من البيانات التكنولوجية التي تمتلكها الشركات الكبيرة.

\n\n

في وقت سابق هذا العام ، كشفت Reddit أنها متعهدة بتحقيق ما يزيد عن 200 مليون دولار في السنوات القادمة من خلال ترخيص بياناتها لشركات مثل OpenAI صانع ChatGPT وGoogle. وتواجه الشركة الأخيرة من هذه الشركات غرامات ضخمة للجلوس على محتوى أخباري محمي بحقوق النشر لتدريب نماذجها الذكية الاصطناعية.

\n\n

ولكن هذه الجهود تسلط أيضًا الضوء على مدى عدم التردد الذي تذهب الشركات إليه لضمان قدرتها على استغلال هذه البيانات ضمن حدود التشريعات الحالية؛ نادرًا ما يكون الانضمام هو على جدول الأعمال ، ومعالجة الانسحاب غالبًا ما تكون مرهقة للغاية. في الشهر الماضي فقط ، لاحظ شخص ما بعض الصيغ الداعرة في

Related Articles

Back to top button Back to top button