منذ انطلاق خدمة المجيب الآلي في الهواتف السلكية منتصف ثمانينيات القرن الماضي، مرورًا بالهواتف الذكية وليس انتهاءً بالمساعدين الصوتيين أمثال سيري وأليكسا، المقدمين من أمازون وجوجل، كان ما يميز هذا النوع من الخدمات - التي تحمل طابع الخدمة - في جميع الأزمنة ومختلف الأجهزة، أنها كانت بصوت أنثوي، والتوجيهات التي يتلقاها المستخدم كانت بصوت امرأة، بينما الخدمات التي تحتاج إلى موثوقية أعلى كالتطبيقات المصرفية والتأمين وخدمة الصرّاف الآلي، نلاحظ أن المجيب الآلي صوت رجل.

تقسيم الأصوات جندريًا بالنسبة لنوع الخدمات المقدّمَة لم يكن من قبيل الصدفة، لكن من المؤكد أنه كان ضمن سلسلة مستمرة من الأفكار المنحازة لجانب الرجال والتعنصر ضد النساء، وهو أحد الأمثلة الكثيرة لانحياز شركات التكنولوجية وعدم مساواتها بين الجنسين.

أشارت إحصائية إلى أن نحو 80% من أساتذة الذكاء الاصطناعى في مختلف الجامعات من الرجال، بينما تشكل النساء 15% فقط من موظفي أبحاث الذكاء الاصطناعى في كبرى الشركات

هذا الانحياز ضد المرأة لها تاريخ طويل في معظم مجالات العلوم والتكنولوجيا، وكأن التقنية وعلوم الحاسوب علم خاص فقط بالرجال وغير مصرح للنساء بالدخول فيه.

هذا الانحياز شمل معظم المرافق في مجال التكنولوجيا، فنرى هذا واضحًا في مجال التعليم وأشد وضوحًا في قطاع العمل والتوظيف، إذ أشارت إحصائية إلى أن نحو 80% من أساتذة الذكاء الاصطناعي في مختلف الجامعات من الرجال، بينما تشكل النساء 15% فقط من موظفي أبحاث الذكاء الاصطناعي في كبرى الشركات أمثال فيسبوك وجوجل.

ولعل أول من دق أجراس الخطر من هذا التحيز الواضح للرجال في شركات التكنولوجيا وما سينجم عنه، كانت جامعة نيويورك، حيث بيّنت في دراسة قامت بها بالتعاون مع معهد ماساتشوستس للتكنولوجيا، مدى خطورة استمرار انفراد الرجال فقط بإنشاء خوارزميات الذكاء الاصطناعي والتعلّم الآلي دون النساء، وأن التحيز آخذ في النمو طالما لم يكن هنالك تنوع في موظفي شركات التكنولوجيا الكبرى.

سلطت الدراسة الضوء على الكيفية التي يساعد بها عدم التوازن بين الجنسين في الشركات الكبرى أمثال جوجل وفيسبوك وأمازون على إدامة التحيز، من خلال برمجة الأنظمة على أساس عنصري، مما يساهم في خلق تطبيقات متحيزة.

وجدت دراسات عدة أن خوارزميات التعلّم العميق - الجيل المتقدم من الذكاء الاصطناعي - يتم برمجتها بطرق خاطئة منتجةً بذلك نتائج منحازة لجهةٍ دون أخرى

وأشار الباحثون إلى أن "استخدام أنظمة الذكاء الاصطناعي لتصنيف العرق والجنس وكشفه والتنبؤ به في حاجة ماسة لإعادة التقييم، واستمرار خلق تطبيقات مرتكزة على هذه الخوارزميات هو مدعاة للقلق"، وقال الباحثون: "لا توجد صناعة أخرى أكثر تأثيرًا على المجتمع من قطاع التكنولوجيا، إذا كانت الشركات التي تتألف من هذه الصناعة ممثلة بالكامل تقريبًا من الذكور البيض، فليس من المستغرب أن تكون منتجاتها متحيزة ضد الأعراق الأخرى، وما دامت شركات التكنولوجيا تحتكرها مجموعات متجانسة من الناس مع تنوع ضئيل أو معدوم بينها، فإن التحيزات سوف تتسلل إلى الأنظمة والبرامج التي تنشئها هذه الشركات".

كيف ينشأ التحيز؟

الكل يعلم أن أجهزة الذكاء الاصطناعي كالحواسيب والأجهزة الذكية الأخرى التي غزت عالمنا وصارت شبه مسيطرة على أفعالنا ليست منحازة بحد ذاتها، لكن البرامج التي تحكم عملها التي هي من تصميم الذكور بصورة حصرية تدفعها دفعًا نحو التحيز.

عند البحث عن صور لـ"فتيات آسيويات" تظهر النتائج مجموعة صور غير لائقة، لأن الخوارزمية تم برمجتها بهذا الشكل، رغم أن جوجل وعدت بتحسين نتائج البحث هذه

فالمشكلة تبدأ من هنا، إذ وجدت دراسات عدة أن خوارزميات التعلم العميق - الجيل المتقدم من الذكاء الاصطناعي - يتم برمجتها بطرق خاطئة منتجةً بذلك نتائج منحازة لجهةٍ دون أخرى.

على سبيل المثال:

1- وجدت دراسة قامت بها جامعة فيرجينيا، أن خوارزميات التعلم الآلي في شركتي فيسبوك ومايكروسوفت، تتميز بالتحيز الجنساني، فعندما عرض عليها صورة لشخصية تقف في مطبخ وكانت لرجل، حددت تلك الخوارزميات جنس الشخصية بأنها امرأة، لأنها الخوارزمية تم تدريبها بأن النساء هن من يتواجدن في المطبخ باستمرار.

2- بينما خوارزميات تحديد مستوى الخطورة المرتكزة على التعرف على الوجه من أمازون، حددت امراة داكنة البشرة بأنها مستوى (عالٍ من الخطورة) وهي في الأصل متهمة بجنحة صغيرة، بينما حددت رجلًا أبيض بأنه مستوى (خطر منخفض) بينما هو مرتكب سرقتين تحت تهديد السلاح.

وفقًا للمركز الوطني الأمريكي للإحصاءات، فإن 28% من شهادات البكالوريوس في علوم الكمبيوتر والمعلومات ذهبت إلى النساء في عام 2000، بينما تراجعت النسبة إلى 18% عام 2016

3- أما خوارزميات جوجل فليست أفضل حالًا من سواها، فعند البحث عن صور لـ(فتيات آسيويات) تظهر النتائج مجموعة صور غير لائقة، لأن الخوارزمية تم برمجتها بهذا الشكل، رغم أن جوجل وعدت بتحسين نتائج البحث هذه.

يمكن تقسيم مجالات التحيز التكنولوجي ضد النساء إلى أقسام عدة، أبرزها:

1- التعليم

يشهد قطاع التعليم إقبالًا ضعيفًا من الإناث في كليات علوم الحاسبات والكمبيوتر على مستوى العالم، وربما يعود السبب في ذلك لندرة حصول الطالبة على فرصة عمل بتخصصها في المستقبل، مما يقودها إلى الانكفاء نحو كليات أخرى.

ووفقًا للمركز الوطني الأمريكي للإحصاءات، فإن 28% من شهادات البكالوريوس في علوم الكمبيوتر والمعلومات ذهبت إلى النساء في عام 2000، بينما تراجعت النسبة إلى 18% عام 2016.

2- التوظيف وفرص العمل

في الأيام الأولى لدخول الحوسبة في قطاع الأعمال كان للنساء مكانة كبيرة تشغلها في ذلك القطاع بسبب نظرة أصحاب الشركات على أنه عمل غير مهم، لكن مع توسع المهام التي تقوم بها تلك الحواسيب وانتباه أصحاب رؤوس الأموال إلى أهمية ذلك القطاع وأن من يجيد استخدام أجهزة الحاسوب سيمتلك مفاتيح الأمور، بدأت تلك الشركات باستبدال الإناث بالذكور.

أثبتت دراسات جامعة نيويورك أن التحيز الموجود في خوارزميات شركات كبرى مثل أمازون وفيسبوك وجوجل يحرم العديدات من الحصول على فرصة عمل داخل تلك الشركات

ورغم امتلاك عدد من النساء مهارات رائعة في برامج الحوسبة والذكاء الاصطناعي وافتتاحِهن عدد من الشركات، فإن بقاء تلك العقلية الذكورية دفع الكثيرات إلى إغلاق شركاتهن والاتجاه إلى مجال عمل آخر.

ومن الأمثلة على ذلك ما قامت به خبيرة البرمجة البريطانية ستيفاني شيرلي من اتخاذ اسم ذكوري لتجنب التمييز الجنسي، واستمرت في أعمالها تحت غطاء ذلك الاسم وحققت نجاحات كبيرة منها برمجة الصندوق الأسود لطائرة الكونكورد.

أثبتت دراسات جامعة نيويورك أن التحيز الموجود في خوارزميات شركات كبرى مثل أمازون وفيسبوك وجوجل يحرم العديدات من الحصول على فرصة عمل داخل تلك الشركات، إذ يعتمد الذكاء الاصطناعي في أمازون على إعطاء تقييم منخفض للسير الذاتية للإناث، حيث جرى تدريب نماذج الكمبيوتر باستخدام السيرة الذاتية المقدمة خلال السنوات العشرة الماضية، وجاء معظمها من الرجال، لذلك "تم تعليم" أن الرجال كانوا أفضل المرشحين للعمل.

كما تعتمد فيسبوك على نوع الجنس في استهداف المستخدم بإعلانات التوظيف، وبسبب هذه الممارسات فإن المنصة حرمت العديد من النساء من إيجاد مقعد لها في شركات التكنولوجيا، وسبب هذا التصرف موجة انتقادات كبيرة لفيسبوك التي وعدت بدورها بتغيير سياسة الإعلانات المتعلقة بالوظائف.

شهدت العديد من فروع جوجل العام الماضي مظاهرات حاشدة تنديدًا بما تلاقيه بعض الموظفات من حالات عديدة من التحرش داخل أروقة الشركة

وبعد أن تنجح إحدى المحظوظات من تجاوز خوارزميات شركات التكنولوجيا المنحازة والظفر بفرصة عمل في إحدى شركات التكنولوجيا، تبدأ قصة جديدة لمعاناتهن، إذ تتفاجأ الكثيرات بالعمل بأعمال هامشية لا تناسب طموحهن ولا توازي شهادتهن.

ليس ذلك وحسب، بل تبدأ قصة جديدة في المعاناة، وهي تعرض نسبة كبيرة منهن للتحرش من رؤسائهن أو زملائهن بالعمل، حيث شهدت العديد من فروع جوجل العام الماضي مظاهرات حاشدة تنديدًا بما تلاقيه بعض الموظفات من حالات عديدة من التحرش داخل أروقة الشركة.

في حين أن الكثير من الموظفات في وادي السيليكون تعرضن لمضايقات عديدة لكن لم يمتلكن الشجاعة الكافية للتكلم بهذه القضايا، إلى أن كتبت سوزان فاولر وهي إحدى العاملات في شركة أوبر عن تعرضها للتحرش في الشركة، الأمر الذي أثار ضجة كبيرة دفعت بالكثير من الأعضاء الفاعلين بالشركة إلى تقديم استقالتهم، لتنكشف بعدها فضائح جمة في شركات عدة.

3- التحيز في صناعة التطبيقات

بعد تعالي الأصوات الداعية إلى الحد من التحيز في شركات التكنولوجيا وترسيخ قواعد المساواة بين الجنسين، أخذت عدد من مراكز الأبحاث على عاتقها إجراء فحص للكثير من التطبيقات والخوارزميات المشكوك في عملها ونتائجها.

تطبيق التعرف على الوجه

أول تلك التطبيقات كان تطبيق "التعرف على الوجه" من أمازون، الذي تستخدمه وكالات إنفاذ القانون في الولايات المتحدة الأمريكية ودول أخرى.

قال النائب جيمي جوميز، وهو ديمقراطي من كاليفورنيا، يحقق في ممارسات أمازون للتعرف على الوجه: "أريد أن أراهم يعالجون مخاوفنا العديدة بدرجة الإلحاح الذي تستحقه"

حيث تبين أن هذا البرنامج واجه صعوبة في تحديد النساء، بل صنف النساء ذوات البشرة الفاتحة على أنهن رجال بنسبة 19%، بينما كان نسبة خطئه بتمييز النساء ذوات البشرة الداكنة بنسبة 31%.

قال النائب جيمي جوميز، وهو ديمقراطي من كاليفورنيا، يحقق في ممارسات أمازون للتعرف على الوجه: "أريد أن أراهم يعالجون مخاوفنا العديدة بدرجة الإلحاح الذي تستحقه وأريد أن أعرف ما إذا كان هذا التطبيق الذي تستخدمه وكالات تنفيذ القانون، يتم استخدامه بطرق تنتهك الحريات المدنية، وما الحماية التي توفرها أمازون - إن وجدت - إلى التكنولوجيا لحماية حقوق مكوناتنا".

تطبيق التعرف على الصوت

لاحظت ميريديث وايتكر، مؤسس ومدير معهد AI Now بجامعة نيويورك، أن أدوات التعرف على الصوت التي تعتمد على الذكاء الاصطناعي لا تتعرف في كثير من الأحيان على الأصوات العالية التي قد تمتاز بها بعض الأصوات النسائية، مسببة بذلك مشكلة في التطبيقات القائمة على تلك الخوارزميات مثل المساعدين الصوتيين والإدخالات الصوتية في الحواسيب.

التحيز في الألعاب

كشفت تجارب لنظام ألعاب Kinect من مايكروسوفت، المعتمد على إيماءات الرأس وحركات الجسد، أن أجهزة استشعار الجهاز لم تتعرف على إيماءات وحركات النساء والأطفال، بينما كانت متفاعلة مع الرجال.

وقال بيجي جونسون، نائب الرئيس التنفيذي لتطوير الأعمال في شركة مايكروسوفت، في معرض رده على هذه المشكلة، إن هذا النظام تم اختباره على الرجال الذين تتراوح أعمارهم بين 18 و35 عامًا، ولم يتم اختباره على النساء والأطفال.