ترجمة وتحرير: نون بوست

في وقت سابق من هذا الشهر، نشرت جامعة نوتينغهام الإنجليزية في مجلة "بلوسوان" العلمية المفتوحة، دراسة حول نموذج جديد من الذكاء الاصطناعي، يستخدم عمليات التعلم الآلي لتوقع مخاطر الموت المبكر، وذلك بالاعتماد على مخزون البيانات الصحية (حول العمر ونمط الحياة) الخاصة ببريطانيين تتراوح أعمارهم بين 40 و69 سنة.

في الحقيقة، تأتي هذه الدراسة بعد أشهر من إجراء دراسة أخرى مشتركة بين جامعة كاليفورنيا سان فرانسيسكو، وستانفورد، وشركة جوجل، التي قدمت نتائج عمليات تعلم آلي بناء على جمع البيانات من السجلات الصحية الإلكترونية، وذلك لتقييم احتمالات وفاة المرضى في المستشفيات. ومن أهداف هاتين الدراستين، تحديد كيفية مساعدة الأطباء على معرفة المرضى الذين قد يستفيدون أكثر من غيرهم من التدخلات العلاجية.

الجدير بالذكر أن إدارة الغذاء والدواء في الولايات المتحدة، تبحث عن سبل الاستفادة من الذكاء الاصطناعي في مجال الرعاية الصحية، وقد نشرت دعوة في وقت سابق من هذا الشهر لوضع إطار منظم لاستخدام الذكاء الاصطناعي في القطاع الصحي. وفي الوقت الذي يتزايد فيه الاهتمام والجدل حول الذكاء الاصطناعي والطب، من الواضح أنه يتوجب علينا فرض نوع من الإشراف والمراقبة حول دور هذه التكنولوجيا في تحديد وتوقع تاريخ الوفاة.

تبرز مشكلة التحيز اللاواعي أو المبطن في مجال الرعاية الصحية، والذي كان محل دراسات معمقة وطويلة، باعتبار أنه يرتبط بالمعالجين في الطب الأكاديمي ويرتبط أيضا بالمرضى

توجد بضعة أسباب تدعم هذا الرأي، حيث زادت مخاوف العلماء والباحثين حول التحيز الذي يظهر في تكنولوجيات الذكاء الاصطناعي. ويقول إيريك توبول، الطبيب ومؤلف كتاب "الطب العميق: الذكاء الاصطناعي في الرعاية الصحية": "إن تحدي التحيزات التي توجد في عمليات التعلم الآلي ينبع في الأصل من المدخلات العصبية المضمنة داخل الخوارزميات، والتي قد تنطوي على تحيزات بشرية. ورغم أن الباحثين بصدد التعامل مع هذه المشكلة، إلا أن هناك بعض المخاوف التي تبقى قائمة. ومن الأمثلة التي تثير القلق، إطلاق جامعة ستانفورد لمشروع جديد للذكاء الاصطناعي قبل بضعة أسابيع، وتعرض هذه المبادرة للكثير من التدقيق والنقد، بسبب افتقادها للتنوع العرقي".

كما تبرز مشكلة التحيز اللاواعي أو المبطن في مجال الرعاية الصحية، والتي كانت محل دراسات معمقة وطويلة، باعتبار أنها ترتبط بالمعالجين في الطب الأكاديمي وترتبط أيضًا بالمرضى. وهناك على سبيل المثال، اختلافات في كيفية معالجة المرضى من مختلف المجموعات العرقية عندما يعانون من الألم، حيث أن تأثيرات هذا الأمر تختلف بناء على جنس الطبيب ومستواه المعرفي. وقد توصلت إحدى الدراسات إلى أن هذه التحيزات أقل حضورًا لدى السود والطبيبات. كما تم أيضًا إثبات أن التطبيقات الصحية الخاصة بالهواتف والساعات الذكية تنطوي هي الأخرى على بعض التحيزات.

خلال 2017، ظهرت دراسة تتحدى تأثير هذه التحيّزات، توصلت إلى أنه بينما قد يفضل الأطباء بشكل ضمني المرضى البيض، فإن هذا لا يؤثر فعليًا على قراراتهم أثناء تأدية عملهم. ولكن، تبقى هذه الدراسة وحيدة في مواجهة عدد كبير من الدراسات الأخرى التي تؤكد العكس. وحتى على مستوى الأحياء التي شملتها دراسة جامعة نوتينغهام، توجد هناك تحيزات. فعلى سبيل المثال، يتعرض السود لأضرار أكبر عند إصابتهم ببعض الأمراض إذا كانوا يعيشون في مناطق يتعرّضون فيها للتعصب العرقي، كما أن التحيّز المبني على الجنس لا يمكن تجاهله هو الآخر، إذ أن النساء قد يحصلن على علاج أقل جدية عند تعرضهن لمشاكل ما بعد الأزمة القلبية (متلازمة الشريان التاجي الحادة).

رغم أن الاختيارات والميولات تختلف بين المجموعات العرقية، إلا أن التحيز يمكن أن يحدث رغم ذلك عندما يمتنع الطبيب عن غير وعي عن عرض كل الخيارات المتاحة أمام المريض

أما عندما يتعلق الأمر بالوفاة والرعاية الصحية لمن شارفوا على الوفاة، فإن هذه التحيزات قد تكون مقلقة بشكل كبير، لأنها قد تعمق الاختلافات القائمة. وقد وجدت دراسة أجريت في 2014 أن المسؤولين عن اتخاذ القرارات بشأن مواصلة رعاية الأشخاص الذين تكون حالتهم ميؤوس منها، عندما يتعلق الأمر بمرضى من غير البيض، فإنهم يكونون أكثر استعدادًا لإيقاف أجهزة التنفس الاصطناعي، وذلك مقارنة بحالات المرضى البيض.

كما توصلت دراسة أجريت لفهم التكهنات والتفضيلات لنتائج ومخاطر العلاجات، تم خلالها فحص بيانات أكثر من تسعة آلاف مريض في خمسة مستشفيات، إلى أن المرضى السود حصلوا على قدر أقل من التدخل الطبي عند اقترابهم من نهاية حياتهم. وعندما يرغب هؤلاء المرضى في مناقشة مسألة الإنعاش القلبي مع أطبائهم، فإن الأرقام تشير إلى أن فرصًا أقل أتيحت لهم لمناقشة ذلك. وتوصلت دراسات أخرى إلى خلاصات مشابهة فيما يتعلق بالمرضى السود الذين اشتكوا من قلّة إحاطتهم بالمعلومات اللازمة عند تدهور حالتهم الصحية.

مع ذلك، لا تعتبر هذه الظواهر ثابتة، حيث أن دراسة أجريت في 2017، ارتكزت على تحليل بيانات تم تجميعها في المسح الوطني، لم تتوصل إلى وجود اختلافات هامة في مستويات الرعاية الصحية عند اقتراب الوفاة، بشكل يمكن ربطه بقضايا العرق. كما ذكر أحد أطباء الرعاية التلطيفية، أن هنالك دراسات أخرى توصلت إلى أن بعض المجموعات العرقية تحرص على الحصول على رعاية أكثر كثافة عند قرب الوفاة، وهذا قد يكون مرتبطًا بردة فعلهم وسعيهم للوقوف ضد نظام الرعاية الصحية المتحيز بشكل منهجي.

رغم أن الاختيارات والميولات تختلف بين المجموعات العرقية، إلا أن التحيز يمكن أن يحدث رغم ذلك عندما يمتنع الطبيب عن غير وعي عن عرض كل الخيارات المتاحة أمام المريض، أو يقوم بافتراضات مسبقة حول الحلول التي سيختارها مريض معين، بناء على انتمائه العرقي. ولكن في بعض الحالات، ثبت أن الاستخدام الحذر للذكاء الاصطناعي قد يكون مساعدًا على إجراء التقييم لدى من تقدّم بهم العمر، وذلك من أجل خفض احتمالات وقوع التحيّز. وخلال العام الماضي، استخدم علماء في الصين الذكاء الاصطناعي لتقييم الوفاة الدماغية. ومن المثير للاهتمام، أنه عند استخدام الخوارزميات، أثبتت الآلة أنها أفضل قدرة على متابعة نشاط الدماغ، من الطبيب الذي فاتته بعض التفاصيل عند استخدامه لتقنيات تقليدية.

بالنظر إلى أن المجلس الاستشاري الذي شكلته شركة جوجل للإشراف على أخلاقيات الذكاء الاصطناعي تم الآن حله، فإن هنالك خيارا آخر قد يكون أفضل، وهو السماح بإنشاء هيكل مركزي لتعديل هذه التقنية

تعيد هذه الملاحظات إلى الأذهان قضية جاهي مكماث، الفتاة الأمريكية من أصول أفريقية التي دخلت في حالة غيبوبة بعد تعرضها لتعكرات أثناء خضوعها لعملية جراحية لإزالة اللوزتين. وربما يكون التحيز الضمني قد لعب دورًا ليس فقط في كيفية معاملتها هي وعائلتها، بل أيضا في النقاش الدائر حول ما إذا كانت حية أو ميتة. لكن الدكتور إيريك توبول يحذر من أن استخدام الذكاء الاصطناعي لأغراض تقييم النشاط الدماغي هو أمر يجب أن يخضع للتحقق والمصادقة، قبل أن يصبح مستخدما خارج الأطر البحثية الحالية.

نحن نعلم أن مقدمي الرعاية الصحية قادرون على تنظيم تدريبات للحد من التحيزات الضمنية، إذ أن برنامج التدريب على التخلص من التحيز اللاواعي في جامعة ستانفورد، يمثل أحد الخيارات المتاحة في هذا الصدد. وهنالك أيضا مؤسسات أخرى قامت بوضع مثل هذه التدريبات، وهي تركز على تقنيات التأمل الذاتي والحضور الذهني. ولكن هذا يختلف كليا عن تحدي الذكاء الاصطناعي، المتمثل في التخلص من هذه التحيزات داخل الخوارزميات، وقواعد البيانات التي تعتمد عليها هذه التكنولوجيا.

بالنظر إلى أن المجلس الاستشاري الذي شكلته شركة جوجل للإشراف على أخلاقيات الذكاء الاصطناعي تم الآن حله، فإن هنالك خيارًا آخر قد يكون أفضل، وهو السماح بإنشاء هيكل مركزي لتعديل هذه التقنية، وذلك من خلال الاعتماد على المقترح الذي تقدمت به إدارة الغذاء والدواء الأمريكية، والذي قد يخدم الجامعات وصناعة التكنولوجيا والمستشفيات.

إن الذكاء الاصطناعي هو وسيلة واعدة أظهرت فائدتها في الأغراض التشخيصية، إلا أن مسألة توقع الموت أو حتى تحديد حالة الموت أو الحياة، هي نقطة معقدة ومختلفة، يمكن أن يتم التعامل معها ببعض التحيزات التي قد تؤثر على العلاقة بين المريض والطبيب. وسواء كنا مستعدين لذلك أم لا، ربما يأتي يوم نواجه فيه الأسئلة الفلسفية والعلمية المتعلقة بتدخل الآلة في تحديد موت الإنسان. وكل ما نتمناه الآن هو ألا ترث هذه التكنولوجيا التحيزات الموجودة لدينا نحن.

المصدر: وايرد