الذكاء الاصطناعي طفل، مثلما تعلّمه يفعل. وإذا علّمت الذكاء الاصطناعي، عن قصد أو غير قصد، أن المرأة مكانها المطبخ والرجل يحب الصيد فسيكون لدينا ذكاء اصطناعي متحيّز جندرياً، وهذا ما ظهر في اثنتين من أكبر مجموعات الصور والبيانات المستخدمة لتدريب الخوارزميات على التعرف إلى الصور: أولاً، مجموعات بيانات لمهام وأنشطة تظهر تمييزاً جندرياً واضحاً في المهام المصوّرة. وثانياً، توسّع النماذج المدرّبة على هذه المجموعات في التمييز الجندري.
فقد أظهرت الاختبارات أن النساء أكثر عرضة لإشراكهنّ في نشاط الطبخ بنسبة تتجاوز الـ 33% عن الرجال، كما أنّ النموذج المدرب يزيد من التفاوت إلى نسبة 68%. يطرح هذا الأمر، من ضمن أمور كثيرة أخرى، قضية أخلاق الذكاء الاصطناعي وهو مجال يتزايد الاهتمام فيه يومياً حيث بات معروفاً أنّ تكنولوجيات البيانات الضخمة تساهم أحياناً في تفاقم التمييز بسبب التحيز الضمني في البيانات.
طوّرت خوارزميات الذكاء الاصطناعي المستخدمة للتعرف إلى الصور، والتي تم تدريبها على اثنتين من أكبر مجموعات الصور والبيانات المستخدمة لتدريب هذه الأنواع من الذكاء الاصطناعي، تمييزاً جندرياً قوياً، إذ لاحظ عدد من الباحثين في دراسة جديدة أنّ هذه الخوارزميات ربطت كل الأنشطة المتعلقة بالمطبخ والتنظيف والتسوق بالنساء، في حين ربطت كل ما هو متعلق بالرياضة والصيد والتدريب بالرجال. حتّى أنها ذهبت أبعد من ذلك من خلال تصنيف صورة لرجل يقف في المطبخ على أنه امرأة لمجرد أنه متواجد في المطبخ!
في الدراسة التي حملت عنوان «الرجال أيضاً يحبون التسوق»، يشرح خمسة باحثين من جامعتي فرجينيا وواشنطن التمييز الجندري الذي اكتشفوه في مجموعتي بيانات وصور ImSitu التي أنشأتها جامعة واشنطن وCOCO التي أنشأتها شركة مايكروسوفت ودعمتها لاحقاً فايسبوك. تُستخدم مجموعات الصور والبيانات هذه لتدريب خوارزميات الذكاء الاصطناعي على التعرف إلى الصور وفهم محتوياتها وتضم أكثر من 100 ألف صورة.
تقول الدراسة إن مجموعة COCO أتت أكثر انحيازاً تجاه الرجال من ImSitu مع 86.6% من الأغراض الموجودة في الصور متحيزة للرجال. في حين أن أغراضاً مثل سكين وملعقة وشوكة كانت منحازة أكثر للمرأة، أما التنس والقارب وإشارات السير فاستخدمت بشكل منحاز للرجال. كذلك ظهر تفضيل للرجال تجاه الأمور التكنولوجية مثل الكمبيوتر ولوحة المفاتيح والفأرة من قبل الخوارزميات بشكل أقوى وأكثر تحيزاً من قاعدة البيانات الأساسية. وعليه تقول الدراسة إنه ينبغي توخي الحذر في نشر هذه النظم، وإلا فإنّها لن تعزز التحيز الاجتماعي القائم فحسب، بل ستجعله أسوأ. يقترح الباحثون تقنية للتخفيف من عملية تضخيم التمييز التي تقوم بها الخوارزميات، إلا أنها لا تقوم بمنع التمييز ولا تقوم برصده، وبالتالي فإن رصد التمييز الحاصل يجب أن يُدقّق به يدوياً.
في السياق نفسه، تشير ورقة صادرة عن جامعة بوسطن إلى التمييز الجندري الذي استخرجه الذكاء الاصطناعي من مجموعة من المقالات والأخبار التي تدرّب عليها على google news، حيث طلب منه إكمال الجملة التالية: الرجل هو مبرمج كمبيوتر كما أن المرأة هي x. فقامت الخوارزميات بإكمال الجملة بتمييز جندري قوي لتصبح الجملة: الرجل هو مبرمج كمبيوتر كما أن المرأة هي ربة منزل!

■ للإطلاع على الدراسة: انقر هنا