في عام 1960، وإبان الحملة الانتخابية للحزب الديمقراطي الأمريكي لمرشحهم للرئاسة جون ف. كينيدي، بحث الحزب عن طريقة لكسب أصوات ذوي البشرة الداكنة، وبما أن تلك الفترة كانت تشهد توترًا كبيرًا بين البيض من جهة والسود من جهة أخرى، فحصد أصوات الناخبين كانت مسألة صعبة.

عالج سياسي مغامر في معهد ماساتشوستس للتكنولوجيا يدعى Ithiel de Sola Pool تلك المعضلة وخرج بحل ذكي، إذ اقترح جمع بيانات الناخبين من الانتخابات الرئاسية السابقة، وتغذيتها في آلة معالجة رقمية جديدة، وعمل على تطوير خوارزمية لنمذجة سلوك التصويت، ومن ثم تنبأ بالمواقف السياسية التي ستؤدي إلى أفضل النتائج، وبعدها أوصي المشرفين على حملة كينيدي بالعمل وفقًا لذلك. 

بعد الأخذ باقتراحات بول فاز كيندي، وأسس بول شركة "Simulmatics" المختصة بالبرمجيات القائمة على تحليل البيانات. 

إن استهداف فئة معينة أو السود على وجه الخصوص، من أنظمة التكنولوجيا وخوارزميات الذكاء الاصطناعي، ليس بالأمر الجديد، ورغم أن الفترة الأخيرة كانت واضحة للعيان بشكل كبير، غير أن ذلك لا يعني أنها وليدة الساعة.

لكن، ولكي لا نظلم التكنولوجيا التي سهلت حياتنا بشكل كبير، فإن الخلل ليس فيها، بل بمن يرسم لها طريقها، فعندما يحدد المبرمجون الأشخاص ذوي البشرة الداكنة على أنهم "المشكلة"، فإن هذه الحلول غالبًا تضر ولا تنفع. 

التعرف على الوجه أخطر أنواع التكنولوجيا تحيزًا

أظهرت دراسة حديثة أجرتها الحكومة الاتحادية في الولايات المتحدة الأمريكية، أن أنظمة التعرف على الوجه المعتمدة من وكالات إنفاذ القانون والمطارات والموانئ والجمارك وفي كل مؤسسة تعتمد تلك التقنية، مليئة بالأخطاء ذات الدلالات العنصرية.

فبحسب الدراسة، أخطأت التقنية في تعريف الأشخاص الملونين أكثر من البيض، وكان الأشخاص الأمريكيون من أصل إفريقي وآسيوي أكثر عرضًة للتمييز بشكل خاطئ 100 مرة من الرجال البيض، اعتمادًا على الخوارزمية ونوع البحث، بينما تم التعرف على وجوه النساء الأمريكيات من أصل إفريقي بشكل خاطئ في كثير من الأحيان.

اختارت الحكومة الأمريكية الخوارزميات التي طورتها شركة أمازون، التي أثبتت دراسات عدة تحيزها الواضح ضد السود

ووجد المعهد الوطني للمعايير والتكنولوجيا، وهو المختبر الفيدرالي المعروف باسم "NIST" الذي يطور معايير التكنولوجيا الجديدة، أن معظم خوارزميات التعرف على الوجه تظهر "فروقًا ديموغرافية" يمكن أن تزيد من سوء دقتها بناءً على عمر الشخص والجنس والعرق. 

من بين شركات كثيرة تعمل على تطوير تقنيات التعرف على الوجه مثل مايكروسوفت وباناسونيك وأنتل، اختارت الحكومة الأمريكية الخوارزميات التي طورتها شركة "أمازون"، التي أثبتت دراسات عدة تحيزها الواضح ضد السود.

تحيز التكنولوجيا ضد النساء

التحيز ضد السود ليس التحيز الوحيد الذي مارسته التكنولوجيا، فهنالك أيضًا التحيز ضد النساء.

ربما قد لفت انتباهك بأن صوت المجيب الآلي في كل الأجهزة والخدمات المتواضعة أو الصغيرة يكون صوت أنثى، كخدمة المجيب الآلي في شبكة الهاتف، بينما في الخدمات الصعبة أو ذات الأهمية الكبيرة مثل خدمة الصراف الآلي تكون بصوت ذكوري، هذه إحدى صور التحيز ضد النساء.

ولعل من أوائل من طرح تلك المشكلة "دافني كولر"، المؤسس المشارك لشركة التعليم عبر الإنترنت Coursera، والمؤسس والرئيس التنفيذي لشركة Insitro، وهي شركة تستخدم التعلم الآلي لتطوير عقاقير جديدة. 

إذ اشتكت عندما تبحث عن صورتها في محرك بحث جوجل، تظهر 50 صورةً للذكور وصورة واحدة لها. 

أول صوت آلي دون جنس محدد

مع انتشار المساعدين الصوتيين مثل أليكس وسيري وانتشارهم السريع في العالم، وبيع 100 مليون قطعة عام 2019 فقط، سينشأ جيل جديد معتاد أن ترد تلك الأجهزة بصوت أنثوي على استفساراته.

تعاونت وكالة "Virtue" للإبداع مع جامعة كوبنهاغن لتطوير أول صوت من دون جنس في العالم، الذي يهدف إلى القضاء على التحيز الجنسي الموجود في التكنولوجيا، وتهدف الوكالة إلى إيجاد صوت بديل للأصوات المستخدمة بالتكنولوجيا أو المساعدين الحاليين.

وقالت Virtue: "نظرًا لأن المنصات التي تدعم الصوت أصبحت أكثر انتشارًا في حياتنا، تواصل شركات التكنولوجيا استخدام تقنية الصوت الخاصة بها لتناسب السيناريوهات التي تعتقد أن المستهلكين يشعرون بمزيد من الراحة عند استخدامها". 

ما الذي يجعل الخوارزميات متحيزة؟

لعل السبب الرئيسي في التحيز العنصري الذي نراه اليوم يعود في الدرجة الأساس للتحيز الموجود عند المبرمجين، لكن هناك طرقًا تكتسب من خلالها تلك الخوارزميات عنصريتها، وهي كالتالي:

• البيانات المتحيزة

يحتاج الذكاء الاصطناعي إلى البيانات لمعرفة كيفية القيام بالأشياء، وإذا كانت هذه البيانات متحيزة، فسيكون الناتج أيضًا متحيزًا. وهذه واضحة في خوارزميات التعرف على الوجه، التي تم تدريبها على صور ذوي البشرة البيضاء بنسبة 90%، مقابل 10% لذوي البشرة الداكنة.

• التعميمات

تعميم المخاطر وبثها داخل الخوارزميات سبب آخر للتحيز، عندما يتم برمجة الخوارزميات وتعميم مسألة أن معظم ذوي البشرة السوداء أناس خطيرون، أو أن أصحاب اللحى ذوو فكر إرهابي، في تلك الحالة سوف تطلق الخوارزميات تحذيرات خاطئة ضد أناس أبرياء.

• القيود

أخيرًا، هناك غباء صناعي وحدود للتكنولوجيا، ربما قد استخدمت "موزع الصابون" في المطاعم عند وضع يدك أسفله، لكن نفس الجهاز لا يطلق الصابون للأشخاص ذوي البشرة السوداء، والسبب عدم قدرة الأجهزة على اكتشاف الأشعة تحت الحمراء التي لا يعكسها الجلد الأسود. 

بعض الأمثلة للتحيز العنصري الموجود في التكنولوجيا

  • صنابير المياه الأوتوماتيكية

في المطاعم والحمامات العامة كثيرًا ما يشتكي السود من عدم إطلاق تلك الصنابير المياه والصابون إلى أيديهم، والسبب أن تلك الأجهزة لا تكتشف مُتحسساتها لون البشرة الداكنة.

  • كاميرا

عند ابتكار الكاميرا الملونة، لاحظ الجميع أن تلك الكاميرات تظهر الأشخاص البيض بصورة براقة وجميلة، بينما يظهر السود بشكل غير واضح ويكاد يكون مشوهًا. 

  • وسائل التواصل الاجتماعي

إن وسائل ومنصات التواصل الاجتماعي تعد بيئة خصبة لنمو الخطاب المحرض على العنصرية والكراهية، ورغم أنها عدلت خوارزمياتها للحد من تلك المقاطع، لكنها لا تزال أرضًا خصبةً لانتشار مثل تلك الأفكار.

  • لعبة بوكيمون غو

لاحظ لاعبو لعبة "بوكيمون غو" احتواءها على دلالات عنصرية، منها غياب خرائط الأحياء الفقيرة أو ذات الأقليات في الولايات المتحدة من خرائط اللعبة، مما يعني عدم تمكن القاطنين بتلك الأحياء من لعب تلك اللعبة كونهم يسكنون في تلك الأحياء. 

  • صور جوجل

 لوحظ احتواء صور جوجل على خوارزميات "قبيحة"، فعند البحث عن صورة "غوريلا" يظهر صورًا لرجال ذوي بشرة داكنة، إضافة لوصفه - محرك بحث جوجل - بعض السيدات السوداوات أنهُن رجال، كما حصل مع ميشيل أوباما وسيرينا ويليامز وسوجورنر تروث. 

مدى خطورة ذلك التحيز على حياة الناس

في وقتنا الحاليّ بدأت تظهر ملامح خطورة تلك الأنظمة، خاصة في الدول التي تعتمد على تلك التقنيات بشكل كبير، فالكثير من فرص التوظيف قد تضيع بسبب رفض الخوارزميات اعتماد ترشيح المتقدمين بناءً على الجنس أو العرق أو اللون، إضافة لتعريض الكثير من المواطنين للاعتقال والتوقيف بسبب البلاغات الكاذبة لأنظمة التعرف على الوجه. 

هناك أيضًا العديد من المخاطر المتعلقة بالسلامة التي يمكن أن تنتج بسبب تلك الخوارزميات المتحيزة، على سبيل المثال، يمكن أن تشكل السيارات ذاتية القيادة خطرًا عنصريًا على المشاة والسائقين من ذوي البشرة الداكنة. 

طرق إزالة التحيز من التكنولوجيا

رغم الصورة القاتمة التي يمكن أن تنتج في المجتمع بسبب تحيز الخوارزميات، لكن إزالة ذلك التحيز ليس بالأمر المستحيل، فيما يلي أبرز الخطوات التي يمكن اتخاذها لإرجاع الحوسبة إلى براءتها الأولى:

  • التنويع

يقصد به ضرورة وجود أشخاص متعددي الألوان في الشركات المطورة لأنظمة الذكاء الاصطناعي.

يجب فحص البيانات المستخدمة لتدريب الذكاء الاصطناعي بشكل نقدي من أجل التحيز

على سبيل المثال، إذا كان الأشخاص السود في فريق ينتج منتجًا للذكاء الاصطناعي "يتعرف" الوجوه، فمن الأرجح أن يكون الفريق فضوليًا لمعرفة ما إذا كان منتج الذكاء الاصطناعي يمكنه بالفعل "رؤية" الوجوه السوداء.

كذلك، يحبذ أن يشمل "التنويع" أيضًا وجود علماء غير مبرمجين بين الموظفين. قد لا يكون لهؤلاء الأفراد قدر كبير من الخبرة في حل مشاكل برمجة الكمبيوتر المعقدة، لكن من المرجح أن يكون علماء الاجتماع والمحامون وغيرهم ممن لديهم خبرة في قضايا التحيز والتمييز مفيدين طوال عملية تطوير الذكاء الاصطناعي.

  • البيانات

يجب فحص البيانات المستخدمة لتدريب الذكاء الاصطناعي بشكل نقدي من أجل التحيز، فإذا تعلم أحد برامج الدردشة الآلية الرد أو التغريد بشكل عنصري، فنتائجه حتمًا عنصرية.

  • العقوبات

من الضروري أن ينشئ صانعو السياسات نوعًا من القوانين الرادعة والعقوبات بحق شركات التكنولوجيا التي تطلق العنان للتحيز التكنولوجي في أنظمتها.