نون بوست نون بوست

نون بوست

  • الرئيسية
  • سياسة
  • اقتصاد
  • مجتمع
  • ثقافة
  • ملفات
  • معمقة
  • بودكاست
EN
الاشعارات عرض المزيد
نون بوست
عصر الحرب الرقمية: مراكز البيانات تتحول إلى أهداف عسكرية
نون بوست
حصار ما بعد الإبادة.. كيف يُقتل مصابي غزة انتظارًا للعلاج؟
نون بوست
وصمة “الدولة”.. إرث ثقيل يلاحق نساء وأطفال عناصر التنظيم
جرى رصد أكثر من 110 حالات مؤكدة لصور ومقاطع فيديو مفبركة كلياً
كيف تحول الـ AI إلى جبهة دعائية موازية خلال الحرب على إيران؟
نون بوست
الأقصى بعد الإغلاق.. هل يتكرّس واقع جديد؟
نون بوست
بعد أشهر من التحقيق.. لجنة قضائية تبرّئ كريم خان من مزاعم سوء السلوك
حقل نفط في كركوك بالعراق يوم 18 أكتوبر 2017 (رويترز)
إغلاق مضيق هرمز.. كيف أعاد الحياة إلى خط كركوك–جيهان؟
نون بوست
سوريا.. هل تتحول المناصب إلى ثمن للاستقرار على حساب العدالة؟
نون بوست
جمهوريون يصعّدون حملاتهم ضد المسلمين.. ويُحققون مكاسب سياسية
نون بوست
الـai في الحروب: كيف يحول “كلود” البيانات إلى خطط قتالية؟
نون بوست
قطاع السياحة في دبي يترنح تحت وطأة الصواريخ الإيرانية
نون بوست
زهران ممداني.. هل يعيد رسم صورة الإسلام في أمريكا؟
نون بوست نون بوست
EN
الاشعارات عرض المزيد
نون بوست
عصر الحرب الرقمية: مراكز البيانات تتحول إلى أهداف عسكرية
نون بوست
حصار ما بعد الإبادة.. كيف يُقتل مصابي غزة انتظارًا للعلاج؟
نون بوست
وصمة “الدولة”.. إرث ثقيل يلاحق نساء وأطفال عناصر التنظيم
جرى رصد أكثر من 110 حالات مؤكدة لصور ومقاطع فيديو مفبركة كلياً
كيف تحول الـ AI إلى جبهة دعائية موازية خلال الحرب على إيران؟
نون بوست
الأقصى بعد الإغلاق.. هل يتكرّس واقع جديد؟
نون بوست
بعد أشهر من التحقيق.. لجنة قضائية تبرّئ كريم خان من مزاعم سوء السلوك
حقل نفط في كركوك بالعراق يوم 18 أكتوبر 2017 (رويترز)
إغلاق مضيق هرمز.. كيف أعاد الحياة إلى خط كركوك–جيهان؟
نون بوست
سوريا.. هل تتحول المناصب إلى ثمن للاستقرار على حساب العدالة؟
نون بوست
جمهوريون يصعّدون حملاتهم ضد المسلمين.. ويُحققون مكاسب سياسية
نون بوست
الـai في الحروب: كيف يحول “كلود” البيانات إلى خطط قتالية؟
نون بوست
قطاع السياحة في دبي يترنح تحت وطأة الصواريخ الإيرانية
نون بوست
زهران ممداني.. هل يعيد رسم صورة الإسلام في أمريكا؟
  • الرئيسية
  • سياسة
  • اقتصاد
  • مجتمع
  • ثقافة
  • ملفات
  • معمقة
  • بودكاست
تابعنا

الروبوتات المقاتلة بين الخيال والممكن.. هل تتحقق النبوءة؟

إيغور سيريبرياني
إيغور سيريبرياني نشر في ٣٠ أبريل ,٢٠٢٢
مشاركة
3

ترجمة وتحرير: نون بوست

كشف القتال متعدد الأسلحة في أوكرانيا عن ظاهرة لم يلاحظها أحد من قبل، تضع خبراء التكنولوجيا العسكرية والحرب الإلكترونية على حافة الهاوية، فقد بدأ الخبراء ذوو الخبرة في إدارة الأنظمة القتالية يلاحظون أن الذكاء الإصطناعي “المعتمد في الاسلحة”، يرتكب أحيانًا بعض الأخطاء، التي يتم خلالها تسليط عقوبة على الجنود على الأقل. بعد عدم اتباع لأوامر القادة أو إعادة برمجة نفسه لأغراض لا يتصورها المشغلون، وهو الأمر الأكثر إثارةً للصدمة بالنسبة للفنيين.

حاول موقع “نيوز ري” اكتشاف ما يمكن أن يؤدي إليه سلوك الذكاء الإصطناعي في حرب حديثة.

لوحظت محاولات مثل هذه “التمردات” عدة مرات خلال الأعمال العدائية بين الجيش الروسي وخصومه الأوكرانيين، عندما كانت الطائرات بدون طيار من كلا طرفي الصراع (تي بي-    2و”لانسات” ونماذج أخرى) تؤدي مهمة، حيث تمت برمجتها على تفادي أخطاء نماذج سابقة سقطت، لكنهم بدأوا في إظهار شيء مماثل لغريزة الحفاظ على الذات؛ فعلى سبيل المثال “هاجرت” طائرة الكاميكاز الأوكرانية بدون طيار من طراز “تي يو- 141” إلى كرواتيا في 10 آذار/ مارس، وكأنها لا تريد القيام بمهمة انتحارية.

وأعلنت مجموعة العمل السيبراني التابعة للأمم المتحدة (OEWG) أنها تعتزم عقد مؤتمر ثاني في تموز/ يوليو من هذا العام (عقد الإجتماع الأول في 28 آذار/ مارس – 1 نيسان/ أبريل) لمناقشة المشكلات التي لم تكن موجودة سابقًا إلا في الأدب الخيالي لستانيسلاف ليم أو إسحاق أزيموف.

صورة

وجمع خبراء (OEWG) بيانات كافية (من المحتمل أن يكون هناك المزيد بحلول تموز/ يوليو) تثبت ظاهرة تقلق المخططين العسكريين والمهندسين: استقلالية الروبوتات القتالية الملحوظة بشكل متزايد عن قادتهم؛ حيث تعرف هذه الأنظمة باللغة الإنجليزية lethal autonomous weapon systems، أي أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS).

وقال جريجوري ألين؛ رئيس مشروع التحكم بالذكاء الاصطناعي الأمريكي، يوم الخميس:

“نحن نحلل بعناية ما يحدث في ساحة المعركة من أجل تحديث الذكاء الاصطناعي والتعلم الآلي حتى يتمكن الذكاء الاصطناعي من التنبؤ بشكل أكثر دقة بالإجراءات المستقبلية للعدو”، مضيفًا: “قدرات الذكاء الاصطناعي في مجالات الاستخبارات والمراقبة والقتال تتزايد كل عام”.

وعلى الرغم من أنه في الغالبية العظمى للحالات؛ فإن “الذكاء الاصطناعي في المجال العسكري” يصحح الأوامر في اتجاه أكثر دقةً وكفاءةً  (على سبيل المثال، إجبار الطائرات بدون طيار على المناورة لتجنب الصواريخ الإعتراضية) فإن الجيش قلق من أي نشاط هاوي في صفوفه، كما أشار كاتب الخيال العلمي البولندي ستانيسلاف ليم في عام 1987 في روايته ” السلام على الأرض”؛ فإن “الفعالية القتالية والذكاء هما شيئان مختلفان، على الأقل في ساحة المعركة”.

وبالتالي؛ يخشى الخبراء في معهد ستوكهولم الدولي لأبحاث السلام (SIPRI) أنه إذا بدأ الاستقلال الذاتي في التطور (من الواضح أنه سيفعل ذلك مع تحسن أنظمة القتال الروبوتية)، فقد يزيل الذكاء الاصطناعي في مرحلة ما الأشخاص من القيادة ويقوم بعمليات قتالية؛ حسب تقديرهم. 

ولا تزال الأنظمة المستقلة محدودة للغاية في التعرف على الأشياء واتخاذ القرارات المستقلة، خاصة في البيئات المتغيرة بسرعة والظروف الجوية السيئة. ومع ذلك؛ فإن زيادة درجة الاستقلالية ليست مهمة صعبة، كما حذر خبراء معهد ستوكهولم في الدراسة التي ألفوها في 147 صفحة، تحت عنوان: “تطوير أنظمة القتال المستقلة”.

ومن الواضح لمتخصصي الأمن السيبراني أن الذكاء الاصطناعي – في مرحلته الحالية من التطور – هو تقنية هشة للغاية ومتقلبة، ترتكب أخطاءً باستمرار، مثل أخطاء الترجمة الكارثية إلى اللغات الأجنبية، عندما يتعلق الأمر بالتحكم في المفاعلات النووية أو أنظمة القتال.

وفي السجل الدولي للأمن السيبراني؛ الذي تم إنشاؤه في عام 2017، تم رصد أكثر من 1200 خطأ من هذا القبيل في الاعتبار اليوم (بدءًا من الحوادث التي ترتكبها السيارات بدون سائق إلى قرارات الموظفين الآليين الخاطئة).

ومع ذلك؛ يشير الخبراء إلى أن سعر الخطأ يرتفع إلى ما لا نهاية عندما يتعلق الأمر باتخاذ القرارات في المجال العسكري، خاصة عندما يتم قياس سرعة اعتمادها في ثوانٍ.

ويحذر بول شار؛ مدير مركز الأمن الأمريكي الجديد، من أن تكون عواقب نقل التحكم في صنع القرار من الإنسان إلى الذكاء الاصطناعي أثناء الحرب غير متوقعة وقد تكون كارثية، موضحًا أن إغراء تفويض سلطات القيادة العسكرية للآلات كبير، لأن هذا يعطي مزايا لا يمكن إنكارها على العدو، ومع ذلك؛ يمكن أن تؤدي أخطاء الذكاء الاصطناعي إلى حقيقة أن مسار الحرب سوف يخرج عن سيطرة الجانبين.

وفي كتابه No Man’s Army الذي تحدث عن الأسلحة المستقلة ومستقبل الحرب؛ كتب شار أنه “إذا تمكنت أجهزة الكمبيوتر من تنفيذ مليارات العمليات في الثانية، فهذا يعني أنها يمكن أن ترتكب ملايين الأخطاء في نفس الوقت، وهو معدل لا يوجد فيه قائد على قيد الحياة يمكنه تصحيح سوء التقدير الكارثي المحتمل لـ “الجندي الإلكتروني” أو على الأقل إلغاء الأمر”.

ويتمثل الخطأ الأكثر شيوعًا، والذي حدث مرارًا وتكرارًا مع الأسلحة “الذكية”، في الموقف عندما تخلط أنظمة الإنذار بين سرب من الطيور أو سحابة كثيفة بجسم معاد (طائرة او صاروخ) وتصدر أمرًا بشن هجوم مضاد؛ لذلك تم إلغاء هذه الأوامر الخاطئة وإبقاء الكلمة الأخيرة بيد الإنسان، لكن تطور الذكاء الاصطناعي يترك المجال مفتوحًا لمسألة “من الذي سيطبق رأيه في المستقبل”: القائد أم الذكاء الاصطناعي الذي يمكنه حساب الخيارات بمائة خطوة للأمام.

يتم اليوم اتخاذ تدابير لمنع أنظمة القتال التي تعمل بالذكاء الاصطناعي من أن تصبح مستقلة للغاية؛ ففي الجيش الأمريكي، على سبيل المثال، يسري الأمر التوجيهي رقم 3000.09 الصادر في تشرين الثاني/نوفمبر 2012، الذي يتطلب أن تكون جميع أنظمة الأسلحة “الذكية” بدون استثناء مزودة بآليات تمنع اختراقها أو إطلاقها ذاتيًّا.

صورة

ويقول الأمر؛ يجب أن تمكّن أنظمة القتال المستقلة وشبه المستقلة القادة والمشغلين من ممارسة المستوى الضروري من السيطرة على استخدامها، كما يجب أن توفر هذه الإجراءات تأكيدًا على أن مثل هذه الأنظمة ستعمل كما هو متوقع في ظل ظروف اتصال حقيقي مع العدو، وفي المواقف الغامضة؛ يجب وقف إطلاق النار أو طلب اتخاذ مزيد من الإجراءات من القادة.

وقال خبير الروبوتات، فلاديمير فينيروف لموقع “نيوز ري”: “لم تعد الروبوتات ذاتية التعلم مستقبلًا، بل حاضرًا، ولكن اليوم يستخلص المهندسون استنتاجاتهم على أساس دراسة أخطاء عينات العمل الفعلية لـ”آلات التفكير””.

وقال فينيروف، الذي يدير شركة ألفا روبوتيكس، إنه يتم تضمين خوارزميات التعلم الذاتي في النماذج الحالية لأنواع كثيرة من المعدات، بدءًا من آلات المحاسبة إلى المركبات بدون سائق، أي أن إنشاء طائرات بدون طيار أو دبابات يتحكم فيها الذكاء الاصطناعي أمر واقعي تمامًا لتقنيات اليوم. وبالتالي؛ فإن السماح أو عدم السماح بمثل هذه العينات في ساحة المعركة ليس مسألة تقنية، إنها مسألة تخطيط عسكري وسلامة أولئك الذين يستخدمون مثل هذه الأنظمة، ولكن مع تسليم السلطات إلى الذكاء الاصطناعي خطوة بخطوة؛ يضعف نظام “الحماية من الأحمق” (أو من المفارقات، كما في هذه الحالة، من “الذكي جدًا”، نظرًا لأننا نتحدث عن روبوت ذاتي التعلم)

هذا هو السبب في أنه خلال اجتماع فريق الأمن السيبراني التابع للأمم المتحدة المقرر عقده في حزيران/يوليو، من المقرر – من بين أمور أخرى – النظر في إمكانية تقديم مشروع معاهدة إلى الجمعية العامة للأمم المتحدة بشأن حظر أنظمة الأسلحة الذاتية.

بالمناسبة؛ يتم الترويج لهذه الفكرة بقوة من قبل الصين؛ حيث تطالب المجتمع الدولي بالتخلي عن تطوير وإنشاء مثل هذه الأنظمة “الذكية”، والتي يكون من المستحيل التراجع عن قراراتها من الخارج.

المصدر: موقع نيوز ري

الوسوم: التكنولوجيا ، الذكاء الاصطناعي ، الذكاء الصنعي ، المستقبل التقني ، تطوير الذكاء الاصطناعي
الوسوم: الذكاء الاصطناعي ، العلوم والتكنولوجيا
تحميل هذا المقال بصيغة PDF
شارك هذا المقال
فيسبوك تويتر واتساب واتساب التليجرام البريد الإلكتروني نسخ الرابط
إيغور سيريبرياني
بواسطة إيغور سيريبرياني
متابعة:
المقال السابق 28ukraine-blog-kyiv-journalist-topart-videoSixteenByNine3000 الحرب الروسية الأوكرانية.. جهود الوساطة على المحك
المقال التالي 589cee4_1649952299224-dislike-media-appel-pixel-02 زرّ “عدم الإعجاب” على شبكات التواصل بين تأييد المستخدمين وإساءة الاستخدام

اقرأ المزيد

  • الـai في الحروب: كيف يحول "كلود" البيانات إلى خطط قتالية؟ الـai في الحروب: كيف يحول "كلود" البيانات إلى خطط قتالية؟
  • كيف تسببت طائرات مسيرة إيرانية رخيصة بإيقاف خدمات سحابية عالمية؟
  • خوارزميات الإبادة.. ماذا نعرف عن أنظمة القتل الإسرائيلية التي تعمل بالـ AI
  • البنتاغون يوظف منصة "كلود" للذكاء الاصطناعي في عملية اعتقال مادورو
  • صعود نخب تكنولوجية جديدة: تحالف يتحكم بالسياسة الأمريكية
part of the design
نشرة نون بوست الأسبوعية

قد يعجبك ايضا

الـai في الحروب: كيف يحول “كلود” البيانات إلى خطط قتالية؟

الـai في الحروب: كيف يحول “كلود” البيانات إلى خطط قتالية؟

كارولين هاسكينز كارولين هاسكينز ٢١ مارس ,٢٠٢٦
مصممة لإحداث الفوضى: مسيّرات رخيصة تغيّر قواعد الحرب بين واشنطن وطهران

مصممة لإحداث الفوضى: مسيّرات رخيصة تغيّر قواعد الحرب بين واشنطن وطهران

بول موزور بول موزور ١٠ مارس ,٢٠٢٦
خوارزميات الإبادة.. ماذا نعرف عن أنظمة القتل الإسرائيلية التي تعمل بالـ AI

خوارزميات الإبادة.. ماذا نعرف عن أنظمة القتل الإسرائيلية التي تعمل بالـ AI

نون إنسايت نون إنسايت ١٩ فبراير ,٢٠٢٦
dark

منصة إعلامية مستقلة، تأسست عام 2013، تنتمي لمدرسة الصحافة المتأنية، تنتج تقارير وتحليلات معمقة ومحتوى متعدد الوسائط لتقديم رؤية أعمق للأخبار، ويقوم عليها فريق شبابي متنوّع المشارب والخلفيات من دول عربية عدة.

  • سياسة
  • مجتمع
  • حقوق وحريات
  • آراء
  • تاريخ
  • رياضة
  • تعليم
  • تكنولوجيا
  • اقتصاد
  • صحافة
  • أدب وفن
  • ريادة أعمال
  • سياحة وسفر
  • سينما ودراما
  • طعام
  • صحة
  • ثقافة
  • أحدث التقارير
  • ملفات
  • مطولات
  • حوارات
  • بودكاست
  • تفاعلي
  • الموسوعة
  • بالصور
  • من نحن
  • كتّابنا
  • اكتب معنا
  • السياسة التحريرية
  • بحث متقدم
بعض الحقوق محفوظة تحت رخصة المشاع الإبداعي

تمت الإزالة من المفضلة

تراجع
Go to mobile version