ترجمة وتحرير: نون بوست

خلال السنوات القليلة الماضية، تم دمج وإضافة المزيد والمزيد من الميزات المستقلة في السيارات. ومنذ أشهر قليلة، أصدرت تيسلا فيديو تباهت فيه بتمكنّها من صنع سيارة ذاتية القيادة بالكامل.

ذُكر في أحد المقالات التي نشرها موقع "تكنوبيديا" أن السيارات التي أصدرتها شركة تيسلا موتورز كانت مزودة بالقطع اللازمة للقيادة الذاتية، على الرغم من أن تنشيط القدرة يعتمد على تحديث البرنامج. تصور المقال أيضًا الفرق بين الطريقة التي تُصنّع بها السيارات ذاتية القيادة اليوم عن تلك التي ستكون موجودة في المستقبل.

في الوقت الحالي، تم تجهيز سيارات تيسلا بالأجهزة اللازمة للقيادة الذاتية، لكن تحديثات البرامج ضرورية لتمكين هذه الميزة بالكامل. وعلى الرغم من أن هذه البرامج ستمكن السيارات من استشعار البيئة المحيطة بها بمفردها، إلا أنها ستسمح أيضًا للسائق البشري بالتحكم في السيارة عند الضرورة.

ي الواقع، ينبغي على الشركات التي تقوم بإعداد برمجة السيارة التنبؤ بجميع السيناريوهات الممكنة وتوجيه السيارة كما لو كان السائق يقودها، لاسيما عندما يتطلب الأمر اتخاذ قرار لتجنب وقوع حادث

مع ذلك، لن يحتاج الجيل القادم من المركبات ذاتية القيادة إلى عجلات توجيهية أو دواسات أو ناقل حركة. وتتمثل ميزة هذه السيارات في أنها قادرة على الحد من الحوادث وتوفير وسائل النقل اللازمة للأشخاص غير القادرين على القيادة مثل كبار السن أو الأشخاص ذوي الإعاقة البصرية أو الجسدية.

مع المزايا الإيجابية هناك جانب سلبي محتمل. ففي الواقع، ينبغي على الشركات التي تقوم بإعداد برمجة السيارة التنبؤ بجميع السيناريوهات الممكنة وتوجيه السيارة كما لو كان السائق يقودها، لاسيما عندما يتطلب الأمر اتخاذ قرار لتجنب وقوع حادث.

في حين أن تيسلا من أشهر السيارات التي تستخدم تقنية الذكاء الاصطناعي، فإنها بالتأكيد ليست السيارة الوحيدة الموجودة في هذه السوق المتنامية، فقد شرعت العديد من الشركات الموقرة في مجال صناعة السيارات في صنع سيارات مماثلة.

كتب بيرنارد مار مؤخرا عن استثمار شركة تويوتا بقيمة مليار دولار في السيارات ذاتية القيادة والذكاء الاصطناعي، كما أشار إلى أن الشركة قد وضعت أهدافا ترغب في تحقيقها بحلول سنة 2020: "من خلال استثماراتها في شركات ناشئة في مجال التكنولوجيا، مثل شركة "برسيبتيف أوتوماتا"، تأمل شركة تويوتا في ابتكار تكنولوجيا جديدة تسمح للمركبات ذاتية القيادة بامتلاك حدس وبديهة مثل البشر عندما تكون على الطريق بحيث تتفاعل كما يتفاعل السائقون البشر مع المشاة.

سجلات السلامة في السيارات ذاتية القيادة

بالطبع هذا ليس كل شيء، ولكن السؤال هو ما إذا كان هذا هو الهدف النهائي وما إذا كان هذا شيء يجب أن نتبعه دون مراعاة كاملة لتداعيات سيارة ذاتية القيادة. ومن بين تسعة حوادث للسيارات ذاتية القيادة، تسبب أربعة منها فقط في وفاة راكبيها. وعلى الرغم من العناوين التي تتصدر الأخبار، إلا أن القائمة لاتزال طويلة، فلا زالت هذه السيارات ترتكب حوادث قاتلة حتى بعد نشر هذا المقال.

من بين الحوادث التي وقعت نذكر الحادث الذي جد يوم 1 آذار/ مارس سنة 2019، فقد أكد المجلس القومي الأمريكي لسلامة النقل أن نظام القيادة الذاتية كان يعمل في سيارة تيسلا مودل 3 عند اصطدامها بمقطورة جرار كانت تحاول عبور الطريق السريع في فلوريدا مما أسفر عن مقتل سائق السيار

وقع آخر حادث مميت لسيارة تيسلا مودل إكس يوم 23 آذار/ مارس 2018، حيث توفي سائق السيارة عند اصطدامه بحاجز على الطريق السريع. وأفادت شركة تيسلا بأن برنامج القيادة الذاتي لم يتفطن لوجود الحاجز، حيث أصدرت بيانا أوضحت فيه قائلة: "لقد كان الاصطدام شديدا للغاية لأن الحاجز الخرساني الموجود على الطريق السريعة قد تحطم في حادث سابق دون أن يتم استبداله أو إعادة بنائه".

كما أضافت الشركة أن الأضرار التي لحقت بسيارة مودل إكس لم تحدث من قبل في أي من الحوادث الأخرى. لكن لسوء الحظ، لم تكن هذه نهاية الحوادث المميتة لسيارات تيسلا ذاتية القيادة، فقد وقعت العديد من الحوادث القاتلة خلال هذه السنة أيضا.

من بين الحوادث التي وقعت نذكر الحادث الذي جد يوم 1 آذار/ مارس سنة 2019، فقد أكد المجلس القومي الأمريكي لسلامة النقل أن نظام القيادة الذاتية كان يعمل في سيارة تيسلا مودل 3 عند اصطدامها بمقطورة جرار كانت تحاول عبور الطريق السريع في فلوريدا مما أسفر عن مقتل سائق السيارة.

على غرار الحادث الذي شهدته تيسلا، تتسبب معظم حوادث السيارات ذاتية التحكم في وفاة الشخص الذي يجلس في مقعد السائق

على الرغم من أن عدد الحوادث التي تسببت فيها سيارات تيسلا ضئيل جدا مقارنة بحوادث السيارات التي يتسبب فيها السائقون، إلا أن هذه الحوادث المميتة قد جعلت الناس يشعرون بالقلق بشأن نظام القيادة الذاتي وبشأن سلامتهم أيضًا. وفي الواقع، ركز موقع كوارتز على الشكوك المتعلقة بمتطلبات السلامة التي توفرها شركة تيسلا في سياراتها.

على غرار الحادث الذي شهدته تيسلا، تتسبب معظم حوادث السيارات ذاتية التحكم في وفاة الشخص الذي يجلس في مقعد السائق. ومع ذلك، تعرضت حالات أخرى من الأشخاص الذين كانوا خارج السيارة للدهس والقتل، وأبرزها الحادث الذي راح ضحيته إيلين هيرزبرغ البالغة من العمر 49 سنة إثر اصطدام إحدى سيارات أوبر بها في آذار/ مارس 2018 عندما كانت تمشي وتدفع دراجتها عبر شارع ميل في تمبي بولاية أريزونا.

شاهدة الفيديو الذي يصف لحظة وقوع الحادث والذي نشرته الشرطة

على إثر هذا الحادث اعتمدت أوبر سياسة تنص على ضرورة التأكد من إدراج العنصر البشري ضمن سائقي سياراتها. كانت تلك الطريقة التي ارتأت أوبر أن تتحايل من خلالها على المشكلة التي سيتعين علينا مواجهتها عندما تصبح السيارات ذاتية التحكم أمرا طبيعيا بالكامل والتطرق إلى كيفية برمجتها بطريقة تضمن تمتعها بغريزة المحافظة على حياة الإنسان.

برمجة الذكاء الاصطناعي مع الاهتمام بالأخلاقيات

كما رأينا في مقال آخر بعنوان "عالمنا الشجاع الجديد: لماذا يثير تقدم الذكاء الاصطناعي المخاوف الأخلاقية"، فإن القوة الكبيرة التي يتمتع بها الذكاء الصناعي تجعل من المسؤولية التي يحملها على عاتقه أكبر. وتتمثل هذه المسؤولية في التأكد من أن التكنولوجيا لن تزيد الطين بلة في نهاية الأمر بتعلة التقدم. وقد حازت دراسة أخلاقيات الذكاء الاصطناعي على انتباه الأشخاص الذين يمتلكون نظرة مستقبلية حول الإجراءات التي يجب اتباعها قبل المضي في تنفيذ الحلول الآلية.

يتجنب السائقون الاصطدام بأي شيء أو أي شخص. لكن من الممكن أن يجد المرء نفسه في موقف يستحيل فيه تجنب هذا الأمر، والخيار الوحيد هو أن يختار الشخص أو الأشخاص الذين يجب الاصطدام بهم

أثار أحد هؤلاء الأشخاص وهو الفيلسوف الكندي والعالم الإدراكي الحاصل على شهادة الدكتوراه، بول ثاغارد، بعض القضايا التي سيتوجب علينا مواجهتها فيما يتعلق ببرمجة الذكاء الاصطناعي حتى يشمل الأخلاقيات ضمن سياق يتطرق إلى كيفية بناء الذكاء الاصطناعي الأخلاقي.

يطرح ثاغارد العوائق الثلاثة التالية:

1- تثير النظريات الأخلاقية الكثير من الجدل، حيث يفضل بعض الناس المبادئ الأخلاقية التي تكرسها النصوص الدينية مثل الكتاب المقدس أو القرآن. يجادل الفلاسفة حول ما إذا كان ينبغي أن تستند الأخلاق إلى الحقوق والواجبات، أو إلى مصلحة الأغلبية، أو التصرفات المستقيمة والحميدة.

2- يقتضي التصرف الأخلاقي الالتزام بالقيم الأخلاقية، ولكن لا يوجد اتفاق حول القيم المناسبة أو حتى حول ماهية القيم. سيكون من المستحيل مواءمة قيم أنظمة الذكاء الاصطناعي مع قيم البشر دون مراعاة واعتماد القيم المناسبة التي يعتمدها الناس عندما يتصرفون بطريقة أخلاقية.

3- تحتاج الأفكار التي تناقش القيم والصواب والخطأ إلى أن تكون دقيقة بما فيه الكفاية لإدراجها في الخوارزميات بهدف صناعة نظام ذكاء اصطناعي يتصرف بطريقة أخلاقية. لكن المداولات الأخلاقية الحالية تفتقر إلى الدقة والخوارزميات إلى حد كبير.

حتى بالنسبة لأولئك الذين يتمتعون بقدرات خارقة، فمن المستحيل النجاح دائما في إنقاذ الجميع، وهو ما ينطبق تماما على السيارات التي تستخدم تقنية الذكاء الاصطناعي

وفي كتابه الفلسفة الطبيعية: من العقول الاجتماعية إلى المعرفة والواقع والأخلاق والجمال، لا يقدم ثاغارد مقاربة للتغلب على هذه التحديات. ومع ذلك فهو لا يقدم أيضا حلاً يعالج بشكل خاص برمجة السيارات ذاتية القيادة في المقال الذي كتبه.

السيارات ذاتية القيادة ومعضلة العربة

يتجنب السائقون الاصطدام بأي شيء أو أي شخص. لكن من الممكن أن يجد المرء نفسه في موقف يستحيل فيه تجنب هذا الأمر، والخيار الوحيد هو أن يختار الشخص أو الأشخاص الذين يجب الاصطدام بهم.

تعرف هذه التجربة الأخلاقية بمعضلة العربة، والتي تعود كما الكلمة إلى القرن الماضي وتتلخص بشكل عام على النحو التالي: تتحرك عربة الترام نحو خمسة أشخاص مقيدين (أو غير قادرين بأي شكل آخر على الحركة) ممددين على السكة. أنت تقف بجانب العتلة التي تتحكم بمحول السكة. إذا قمت بسحبها، فسوف تعيد توجيه العربة إلى مسار جانبي، وتنقذ حياة الأشخاص الخمسة الممددين على السكة. ومع ذلك، هناك شخص آخر ممدد على المسار الجانبي.

في الواقع، يوجد هناك خياران ألا وهما:

1- عدم القيام بأي شيء والسماح للعربة بقتل الأشخاص الخمسة الموجودين على المسار الرئيسي.

2-  سحب العتلة وتغيير اتجاه العربة نحو المسار الجانبي بحيث تتسبب في مقتل شخص واحد.

في الحقيقة، لا يعد أحد هاذين الخيارين جيدا، لكن السؤال المطروح هو أيهما سوف يتسبب في أضرار أقل وأخف. 

سلّط معهد ماساتشوستس للتكنولوجيا الضوء على بعض الباحثين الذين عملوا على صياغة الإجابات قبل بضع سنوات، حول الطريقة التي تسمح بمساعدة السيارات ذاتية القيادة على اتخاذ القرارات الأخلاقية

لقد كان هذا نوعًا من المعضلة التي قدمتها شخصية غرين غوبلين في فيلم سبايدرمان (الرجل العنكبوت) في سنة 2002، في محاولة لإجبار هذا الأخير على الاختيار بين إنقاذ سيارة التلفريك المليئة بالأطفال أو المرأة التي يحبها. وبصفته بطلًا خارقًا، تمكن سبايدرمان من استخدام كل من قدراته في غزل الشبكة العنكبوتية وقوته لإنقاذ الاثنين. لكن في بعض الأحيان، يضطر حتى الأبطال الخارقين إلى مواجهة خيارات مأساوية، كما كان الحال في فيلم "فارس الظلام" لسنة 2008 حيث اختار باتمان (الرجل الوطواط) ترك المرأة التي أحبها في المبنى الذي انفجر.

حتى بالنسبة لأولئك الذين يتمتعون بقدرات خارقة، فمن المستحيل النجاح دائما في إنقاذ الجميع، وهو ما ينطبق تماما على السيارات التي تستخدم تقنية الذكاء الاصطناعي. في هذه الحالة، يجدر التساؤل: فيما تتمثل مدونة الأخلاقيات التي يجب تطبيقها بهدف برمجتها لاتخاذ مثل هذه الخيارات؟

فيما تتمثل مهمة السيارة ذاتية القيادة؟

سلّط معهد ماساتشوستس للتكنولوجيا الضوء على بعض الباحثين الذين عملوا على صياغة الإجابات قبل بضع سنوات، حول الطريقة التي تسمح بمساعدة السيارات ذاتية القيادة على اتخاذ القرارات الأخلاقية. وقد ركّز أحد هؤلاء الباحثين في هذا المجال والأستاذ في جامعة ستانفورد، كريس جيرديس، على البحث في "المعضلات الأخلاقية المحتملة التي تنشأ عند انتشار السيارات ذاتية القيادة في العالم الحقيقي".

لقد قدم الباحث خيارًا أكثر بساطة يتمثّل في التعامل مع طفل يركض عبر الشارع، ما يجبر السيارة على الاصطدام بشيء ما مع فرصة الاختيار بين الطفل وشاحنة على الطريق. بالنسبة للإنسان، من البديهي أن حماية الطفل تكتسي أهمية أكبر من حماية الشاحنة أو من حماية السيارة نفسها.

وفقا لباتريك لين، وهو خبير آخر بارز في هذا المجال وأستاذ فلسفة بجامعة كاليفورنيا بوليتكنك والذي عمل جنبا إلى جنب مع جيرديس، فإنه "في حال كنا بصدد قيادة السيارة في الوضع اليدوي، فإن كل رد فعل يصدر عنا سيُفهم على أنه رد فعل وليس قرارًا متعمدًا"

في المقابل، كيف سيكون رأي الذكاء الاصطناعي؟ وماذا عن ركاب السيارة الذين قد ينتهي بهم المطاف إلى التعرّض إلى بعض الإصابات جرّاء هذا الارتطام؟ حيال هذا الشأن، أشار جيرديس إلى أنه: "يواجه كل شخص يعمل على تصميم خوارزميات التحكم في السيارات ذاتية القيادة هذه القرارات شديدة الصعوبة يوميا".

يقتبس المقال أيضًا أقوال أدريانو إليساندريني، وهي باحثة تعنى بالسيارات الآلية في جامعة روما لا سابينزا في إيطاليا، وشغلت منصب رئيسة القسم الإيطالي من مشروع "سيتي موبايل 2" الواقع في أوروبا لاختبار مركبة النقل الآلية، وهي تعلّق على مشكلة الترولي بالنسبة للسائقين والسيارات ذاتية القيادة قائلة: "قد تلاحظ وجود شيء ما في طريقك، وتقرر تغيير المسارات، وبينما تفعل ذلك، يعترضك شيء آخر في هذا المسار. يمثل هذا الوضع معضلة أخلاقية".

وفقا لباتريك لين، وهو خبير آخر بارز في هذا المجال وأستاذ فلسفة بجامعة كاليفورنيا بوليتكنك والذي عمل جنبا إلى جنب مع جيرديس، فإنه "في حال كنا بصدد قيادة السيارة في الوضع اليدوي، فإن كل رد فعل يصدر عنا سيُفهم على أنه رد فعل وليس قرارًا متعمدًا". على هذا الأساس، سيكون من المفهوم أنها "استجابة غريزية نتيجة الفزع دون تفكير مسبق أو خبث".

في هذه الحالة، لا تعود حالات الوفيات المحتملة التي من شأنها أن تحدث إلى وجود خلل ما وإنما تأتي نتيجة البرامج التي تتبعها السيارات، ما يجعل من المهم للغاية التفكير في كيفية التعامل مع ما يصفه لين بأنه "خوارزمية استهداف من نوع ما".

علاوة على ذلك، يوضح لين أن مثل هذه البرامج "تعمل على تفضيل نوع معين من الأشياء التي تصطدم بها أو التمييز ضدها". نتيجةً لذلك، سيعاني الأشخاص الموجودون في "السيارات المستهدفة من العواقب السلبية لهذه الخوارزمية دون ارتكابهم أي خطأ". في الحقيقة، لا يقدم لين حلا لهذه المشكلة، لكنه بمثابة التحذير بضرورة التفكير في كيفية تعاملنا مع هذه البرامج: "سيساعدنا اكتشاف هذه المنعطفات الأخلاقية القاسية الآن على المناورة في الطريق غير المألوف لأخلاقيات التكنولوجيا، كما يسمح لنا بالتنقل بثقة ونزاهة نحو مستقبلنا الجديد والمشرق". من المحتمل أن يشكل ذلك تحديًا أكبر للتنقل عبر الطرق التي يجب على السيارات ذاتية القيادة سلكها.

المصدر: إنترستينغ إنجينيرينغ