Fashion

لا تزال جوجل لم تصلح مولد الصور المحايد لـ جيميني

في فبراير الماضي، أوقفت جوجل قدرة جيميني الذكاء الاصطناعي على إنشاء صور للأشخاص بعد شكاوى من عدم الدقة التاريخية. على سبيل المثال، عندما طُلب منها تصوير 'لواء روماني'، كانت جيميني تظهر مجموعة من الجنود من مختلف الأعراق بينما كانت تصور 'محاربي زولو' على أنهم أسود بشكل نمطي.

اعتذر الرئيس التنفيذي لجوجل Sundar Pichai، وقال ديميس هاسابيس، المؤسس المشارك لقسم البحوث عن الذكاء الاصطناعي التابع لجوجل DeepMind، إن الإصلاح يجب أن يكون 'في وقت قريب جدًا' - خلال الأسابيع القليلة القادمة. لكن نحن الآن في منتصف شهر مايو، والإصلاح الموعود لا يزال غير واضح.

أشادت جوجل بالعديد من ميزات جيميني الأخرى خلال مؤتمر المطورين السنوي I/O هذا الأسبوع، من الروبوتات الدردشة المخصصة إلى منظم جدول العطلات والتكامل مع تقويم جوجل، والمحافظة ويوتيوب ميوزيك. ولكن إنشاء صور للأشخاص ما زال معطلا في تطبيقات جيميني على الويب والجوال، وأكده متحدث باسم جوجل.

فما هو السبب؟ حسنًا، من المحتمل أن تكون المشكلة أكثر تعقيدًا مما ألمح إليه هاسابيس.

تحتوي مجموعات البيانات المستخدمة لتدريب مولدات الصور مثل جيميني عمومًا على مزيد من الصور للأشخاص البيض مقارنة بأشخاص الأعراق والأعراق الأخرى، والصور للأشخاص غير البيض تعزز الصور النمطية السلبية. حاولت جوجل، في محاولة واضحة لتصحيح هذه التحيزات، تنفيذ برمجة سخيفة أسفل الغطاء. والآن تتكبد صعوبة في إيجاد طريق وسط معقول يتجنب تكرار التاريخ.

هل ستصل جوجل إلى هناك؟ ربما. ربما لا. وعلى أي حال، تعتبر القضية المستمرة تذكيرًا بأنه لا يوجد حلاً سهلاً للذكاء الاصطناعي السلوكي - خاصة عندما يكون التحيز هو جذر السلوك الخاطئ.

نحن نطلق الآن نشرة إخبارية عن الذكاء الاصطناعي! قم بالتسجيل هنا لبدء تلقيها في صناديق البريد الواردة الخاصة بك في 5 يونيو.

Related Articles

Back to top button Back to top button