Tech

مجلس الذكاء الاصطناعي الجديد لشركة Meta مكون بالكامل من الرجال البيض

\n

أعلنت Meta يوم الأربعاء عن إنشاء مجلس استشاري للذكاء الاصطناعي يضم فقط رجالًا بيض، فماذا نتوقع أكثر؟ تم التحدث منذ عقود عن تجاهل النساء والأشخاص من ذوي البشرة اللونية في عالم الذكاء الاصطناعي بالرغم من كونهم مؤهلين ولعبوا دورًا رئيسيًا في تطور هذا المجال.

\n

لم تستجب Meta على الفور لطلب التعليق حول تنوع المجلس الاستشاري.

\n
\n
\n
\n

يختلف هذا المجلس الاستشاري الجديد عن مجلس إدارة Meta الفعلي ومجلس الرقابة الخاص بها، الذي يحظى بتنوع أكبر في التمثيل الجنسي والعرقي. لم ينتخب المساهمون في هذا المجلس الذكاء الاصطناعي، والذي لا يحمل أي واجب واجب مسؤولية. قالت Meta لـ Bloomberg إن المجلس سيقدم \"نصائح وتوصيات بشأن التطورات التكنولوجية والابتكار وفرص النمو الاستراتيجي\". وسيجتمع \"دورياً\".

\n
\n
\n
\n

من المثير للاهتمام أن مجلس الذكاء الاصطناعي يضم بالكامل رجال أعمال ورواد أعمال، وليس أخلاقيين أو أي شخص لديه خلفية أكاديمية أو بحث عميقة. في حين يمكن للمرء أن يجادل بأن القادة التنفيذيين الحاليين والسابقين في Stripe وShopify و Microsoft مؤهلين تمامًا للإشراف على خطة منتجات Meta للذكاء الاصطناعي نظرًا للعدد الهائل من المنتجات التي قدموها إلى السوق من بينها، إلا أن من الواضح مرة بعد أخرى أن الذكاء الاصطناعي ليس مثل المنتجات الأخرى. إنه أعمال محفوفة بالمخاطر، ويمكن أن تكون عواقب الخطأ جسيمة، خاصة بالنسبة للمجموعات المهمشة.

\n
\n
النساء في مجال الذكاء الاصطناعي يقدنا فارقاً
\n

في مقابلة حديثة مع TechCrunch، قالت سارة مايرز ويست، المديرة الإدارية في معهد AI Now، وهي جمعية غير ربحية تدرس الآثار الاجتماعية للذكاء الاصطناعي، إنه من الضروري \"فحص المؤسسات التي تنتج الذكاء الاصطناعي بشكل نقدي\" لضمان \"خدمة احتياجات الجمهور\".

\n

\"إن هذه التكنولوجيا عرضة للأخطاء، ونعلم من البحوث المستقلة أن تلك الأخطاء لا توزع بالتساوي، بل تضر بشكل مفرط بالمجتمعات التي تحمل وطأة التمييز لفترة طويلة\"، قالت. \"علينا أن نرفع العصا بكفة أعلى بكثير\".

\n
\n
\n
\n

من المرجح أن يتعرض النساء أكثر من الرجال لجانب الظلام من الذكاء الاصطناعي. وجدت شركة Sensity AI في عام 2019 أن 96% من مقاطع الفيديو deepfake AI على الإنترنت كانت غير مرغوب فيها، وتحتوي على مشاهد جنسية صريحة. أصبحت التكنولوجيا المولدة للذكاء الاصطناعي أكثر انتشاراً منذ ذلك الحين، والنساء لا يزالن هدفاً لهذا السلوك الانتهاكي.

\n
\n
\n

في حادثة بارزة من يناير، انتشرت deepfakes جنسية لتايلور سويفت دون موافقتها على X، حيث حصلت إحدى أشهر المنشورات على مئات آلاف الإعجابات، و 45 مليون مشاهدة. منصات التواصل الاجتماعي مثل X كانت تفشل تاريخيًا في حماية النساء من هذه الظروف — لكن بما أن تايلور سويفت أحد أقوى النساء في العالم، تدخلت X من خلال حظر مصطلحات البحث مثل \"taylor swift ai\" و taylor swift deepfake\".

\n
\n
\n
\n

ولكن إذا حدث لك هذا ولست نجمة موسيقية عالمية، فقد تجد نفسك بلا حظ. هناك تقارير عديدة عن طلاب المرحلة الإعدادية والثانوية الذين يقومون بعمل deepfakes جنسية لزملاءهم. بينما كانت هذه التكنولوجيا موجودة لفترة، لم يكن من السهل الوصول إليها — لا يلزمك أن تكون محترفًا تكنولوجياً لتنزيل تطبيقات معلنة بوضوح لـ \"تعرية\" صور النساء أو تبادل الوجوه على مواد إباحية. في الواقع، وفقًا لتقرير كات تنبارغ من NBC، استضاف فيسبوك وإنستغرام إعلانات لتطبيق يسمى Perky AI، الذي وصف نفسه بأنه أداة لجعل الصور الجنسية بشكل صريح.

\n
\n
\n
\n

كان أحد الإعلانات، التي افترض لفترة أنها نجت من اكتشاف Meta حتى أخبرت تنبارغ الشركة بالمشكلة، تعرض صوراً للمشاهير سابرينا كاربنتر وجينا أورتيجا بأجسادهما مطمورة، داعية العملاء لحث التطبيق لنزع ملابسهم. استخدمت الإعلانات صورة لأورتيجا عندما كانت في سن 16 عامًا.

\n

كان خطأ السماح لـ Perky AI بالإعلان ليس حادثة منفردة. ففريق رقابة Meta فتح مؤخرًا تحقيقات في فشل الشركة في التعامل مع تقارير المحتوى الجنسي الاصطناعي الذي تولدته AI.

\n

من الضروري أن تستدعي أصوات النساء والأشخاص من الأعراق المختلفة في الابتكارات لمنتجات الذكاء الاصطناعي. لفترة طويلة، تم استبعاد مثل هذه المجموعات المهمشة من تطوير التكنولوجيا والأبحاث التي تغير العالم، وكانت النتائج وخيمة.

\n

مثال سهل هو أن النساء كانوا مستبعدين من التجارب السريرية حتى السبعينيات، مما يعني أن المجالات البحثية تطورت بدون فهم كيف ستؤثر على النساء. يرون السود، على وجه الخصوص، تأثيرات التكنولوجيا التي يتم بناؤها دون أن تكون لهم في الاعتبار — على سبيل المثال، فإن السيارات ذاتية القيادة أكثر احتمالاً للتصادم معهم لأن أجهزتها قد تواجه صعوبة في اكتشاف البشرة السمراء، وفقًا لدراسة أجرتها معهد التكنولوجيا في جورجيا عام 2019.

\n
\n
\n
\n

الخوارزميات التي تم تدريبها على البيانات المميزة بالفعل لا تفعل سوى إعادة تكرار التحيزات نفسها التي أدرجها البشر فيها. بشكل عام، نرى بالفعل أن أنظمة الذكاء الاصطناعي تعزز وتكرر التمييز العنصري في التوظيف والإسكان والعدالة الجنائية. يجد صحفيون سترات في أن تعلم جهاز المساعد الصوتي فهم اللكنات المتنوعة وغالباً ما يعتبرون العمل من قبل الأشخاص الذين ليسوا باللغتهم الأم لأنه ناجم عن AI. تحدد أنظمة التعرف على الوجوه الأشخاص السود كمحتملين لمطابقة المشتبه فيهم بارتكاب جرائم أكثر من الأشخاص البيض.

\n

يجسد تطوير الذكاء الصناعي الحالي نفس الهياكل السلطة الموجودة بالفعل بشأن الطبقة والعرق والجنس واليوروسنترية التي نراها في أماكن أخرى، ويبدو أن قادة لا يتعاملون مع هذا بشكل كافٍ. بدلاً من ذلك، هم يعززونه. المستثمرون والمؤسسون وقادة التكنولوجيا مركزون كثيرًا على التقدم بسرعة وكسر الأشياء بحيث يبدو أنهم لا يستطيعون فهم أن تكنولوجيا التكاثر الذكائي — التكنولوجيا الذكية الساخنة في الوقت الحالي — يمكن أن تجعل المشاكل أسوأ، وليس أفضل. وفقًا لتقرير من McKinsey، يمكن للذكاء الاصطناعي أتمتة حوالي نصف جميع الوظائف التي لا تتطلب درجة بكالوريوس لديها أكثر من 42،000 دولار سنويًا، الوظائف التي يشكل فيها العمال الأقليات نسبة أعلى.

\n

هناك داعٍ للقلق من أن يكون فريق مكون من رجال بيض في إحدى أبرز شركات التكنولوجيا في العالم، يشترك في هذا السباق لإنقاذ العالم باستخدام الذكاء الاصطناعي، بإمكانهم على سبيل المثال تقديم المشورة بشأن منتجات لجميع الأشخاص عندما يتم تمثيل فقط إحدى الفئات الضيقة. من الضروري بذل جهد كبير لبناء تقنية يمكن للجميع — حقًا الجميع — استخدامها. في الواقع، الطبقات اللازمة لبناء الذكاء الاصطناعي الآمن والشامل — من البحث إلى الفهم على مستوى اجتماعي تقاطعي — دقيقة لدرجة أنه من الواضح تقريباً أن هذا المجلس الاستشاري لن يساعد Meta على الحصول على الحق. على الأقل حيث يقصر Meta، يمكن أن تظهر شركة ن

Related Articles

Back to top button Back to top button