• الرئيسية
  • سياسة
  • اقتصاد
  • مجتمع
  • ثقافة
  • ملفات
  • معمقة
  • بودكاست

كيف تحول الـ AI إلى جبهة دعائية موازية خلال الحرب على إيران؟

نون إنسايت٢٢ مارس ٢٠٢٦

جرى رصد أكثر من 110 حالات مؤكدة لصور ومقاطع فيديو مفبركة كلياً

انفجارات هائلة فوق “تل أبيب”، حاملة طائرات أمريكية تشتعل في الخليج، وجنود أمريكيون يبكون في مبانٍ مدمَّرة.. كل تلك المشاهد وغيرها انتشرت بقوة على وسائل التواصل بعد بدء الحرب على إيران، وسرت في الخيال الجمعي بفضل الذكاء الاصطناعي لا الواقع.

فمع اندلاع الحرب الأمريكية الإسرائيلية على إيران في 28 فبراير/شباط 2026، لم تكن السماء وحدها مسرحًا للصواريخ والطائرات بل ظهرت على الشاشات مئات المقاطع والصور التي بدا بعضها وكأنه مأخوذ من أفلام هوليوودية.

حجم انتشار المقاطع المفبركة

لم يكن هذا المحتوى مجرد أخطاء عفوية أو اجتهادات خاطئة من مستخدمين عاديين، بل مثّل حملة تضليل منظمة ومكثفة، وموجهة بعناية.

وفقاً لتقرير استقصائي صادر عن شركة التحليلات الرقمية الموثوقة (Cyabra) منتصف مارس/آذار 2026، جرى رصد أكثر من 110 حالات مؤكدة لصور ومقاطع فيديو مفبركة كلياً باستخدام الذكاء الاصطناعي أو مأخوذة من سياقات قديمة ومعاد تدويرها.

وقد حصدت هذه المواد المصطنعة أكثر من 145 مليون مشاهدة في غضون أسبوعين فقط، مدفوعة بجيش من الحسابات الوهمية التي بلغ عددها نحو 30 ألف حساب نشط.

وتكشف هذه الأرقام المفزعة عن صناعة تضليل متكاملة الأركان، تفوقت فيها الآلة على قدرة وسرعة الصحفيين ووكالات الأنباء في الميدان.

واعتبر خبراء مثل تيموثي غراهام وهنري أجدر من جامعة التكنولوجيا في كوينزلاند أن الوفرة غير المسبوقة لأدوات توليد الفيديو سهَّلت إنتاج مقاطع حربية مقنعة خلال دقائق.

إذ باتت الحرب تُخاض بالفضاء الرقمي كما الميدان، وتحوّل الذكاء الاصطناعي إلى سلاح دعائي يثير الخوف ويُربك الحقيقة.

ولم تتوقف الفبركات عند استخدام مقاطع الصواريخ والعمليات العسكري بل وصلت أيضا إلى محاولة طمس الحقيقة إلكترونية.

وهو ما ظهر في توليد مقاطع تشكك في المجزرة التي نفذتها واشنطن على مدرسة ميناب للفتيات جنوب إيران، بإنتاج مقاطع تظهر أن الانفجار الهائل لم يقع في إيران من الأساس، بل حدث في مدينة بيشاور في باكستان، مدعومة بصور تم تعديلها لإظهار لافتات وأعلام وهمية.

في الوقت ذاته، ادعت حملات تضليل أخرى ومحللون استخباراتيون مفتعلون أن الانفجار كان نتيجة “صاروخ إيراني فاشل” سقط على المدرسة بالخطأ، مستخدمين صوراً لبقايا صواريخ تبين لاحقاً، عبر تدقيق الخبراء، أنها التقطت في مدينة زنجان الإيرانية التي تبعد مئات الكيلومترات عن ميناب.

أبرز الأمثلة الموثقة للمقاطع والصور المفبركة

1- هجوم صاروخي على “تل أبيب”: أحد أكثر المقاطع تداولًا كان فيديو يظهر قصفًا صاروخيًا كثيفًا على المدينة مع علم “إسرائيل” في المقدمة.

بعد تحليل أجرته رويترز بالتعاون مع ثلاثة خبراء مستقلين، تبين أن الفيديو مولَّد بالذكاء الاصطناعي، إذ أظهرت العلامات حدوث تشوهات في العلم ومركبات تتغير أشكالها فجأة وسماء مكوّنة من طبقات غير واقعية. كما أشار الخبراء إلى أن نفس العلم والآليات ظهرت في موقعين مختلفين.

2- صور الجنود الأمريكيين الأسرى: انتشرت أربع صور تظهر جنودًا أمريكيين يجثون أمام العلم الإيراني. وكالة رويترز استخدمت أداة SynthID من غوغل لاكتشاف العلامات المائية غير المرئية، وتوصلت إلى أن الصور مخلَّقة بالذكاء الاصطناعي؛ كما لم يوجد أي دليل على أسر جنود أمريكيين.

3- فيديو برج خليفة المحترق: انتشر على منصات عدة فيديو يُظهر برج خليفة في دبي يشتعل بينما يركض الناس في الشارع. فحص AFP Fact Check الفيديو ولاحظ تشوهات في أيدي الأشخاص والطائرات، وكذلك تباينًا غريبًا في أفق دبي.

4- الهجوم على “أبراهام لينكولن”: تداولت حسابات عديدة مقاطع تزعم أن طائرات إيرانية ضربت حاملة الطائرات الأمريكية أبراهام لينكولن. وكالة الأنباء الفرنسية كشفت أن أحد المقاطع نُفِّذ باستخدام نموذج Google Veo 2، أما الفيديو الآخر فكان مقتطعًا من حريق حقيقي في سفينة أميركية عام 2020.

5- صورة قاعدة البحرية في البحرين: نشرت صحيفة “Tehran Times” صورة أقمار صناعية تزعم أن قاعدة الأسطول الخامس الأمريكي في البحرين تعرضت لأضرار. BBC Verify قارنت الصورة بصور أقمار صناعية أصلية ولاحظت أن السيارات والمباني متطابقة تمامًا رغم ادعاء التقاط الصورة في زمن مختلف، واستخدمت أداة SynthID لتثبت أن الصورة معدّلة بأدوات غوغل.

مقاطع الفيديو التالية هي مجرد مثال عما نشر من مقاطع بدت للكثيرين حقيقية لكنها كانت مولد بالذكاء الاصطناعي.

A.I.

 

A.I.

 

A.I.

 

A.I.

 

A.I.

 

A.I.

 

A.I.

 

A.I.

 

A.I.

 

A.I.

 

A.I.

 

A.I.

 

لماذا تنتشر المقاطع المفبركة أسرع من الحقيقية؟

تُفَسَّر سرعة انتشار المقاطع المزيفة بعدة عوامل.

1- الدراما البصرية: الفيديوهات المفبركة تعرض انفجارات ضخمة وأعلامًا إسرائيلية تحترق ومبانٍ تنهار بطريقة جذابة، في حين أن الفيديوهات الحقيقية غالبًا ما تكون مظلمة وغير واضحة؛ في تباين يجعل المزيف أكثر إثارة ويحفّز المشاركة.د

2- الخوارزميات وحوافز المنصات: نظام منصة إكس للمشاركة في العائدات يكافئ الحسابات التي تحصد مشاهدات عالية، ما يدفع بعض المستخدمين لابتكار محتوى جذاب حتى لو كان مزيفًا، وذلك رغم تعليق المنصة (نظريًا في كثير من الأحيان) للدخل من المقاطع المفبركة.

3- العاطفة والصدمة: مشاهد الدمار تحرّك الخوف والغضب، وعندما تلامس المحتويات روايات موجودة مسبقًا، فإنها تكرّس ما يسمى بـ “التحيز التأكيدي”، كما شرحت الباحثة فاليري ويرتشافتر في مقابلات سابقة عن الصراعات.

4- أسباب دعائية: يسهل على المستخدمين مشاركة المقاطع في مجموعات مغلقة حيث لا توجد أدوات تحقق، مما يسمح للدعاية بالانتشار أفقيًا بعيدًا عن أعين المدققين. في هذا السياق تتضاعف قدرة الذكاء الاصطناعي على تخليق روايات كاملة تضاهي تأثير الصواريخ.

بين أوكرانيا وإيران.. 4 سنوات تضاعف فيها التزييف

من أجل قياس حجم التطور في استخدام الذكاء الاصطناعي، قارنا بين الحرب الروسية الأوكرانية في فبراير/شباط 2022 والحرب على إيران في فبراير/شباط 2026، بفاصل زمني يبلغ أربع سنوات كشف تسارعًا لافتًا في الأدوات والقدرات.

في الحالة الأوكرانية، كانت عملية الفبركة تتطلب جهداً بشرياً كبيراً، تكلفة مالية، وموارد، فضلاً عن وقت طويل لمعالجة الفيديوهات عبر برامج المونتاج التقليدية.

أما اليوم، في حرب 2026، فقد انخفضت تكلفة الإنتاج إلى الصفر تقريباً، وأصبحت السرعة تقاس بالثواني. إذ يكفي أن يكتب أي مستخدم أو “روبوت إلكتروني” (Bot) وصفاً نصياً بسيطاً ليحصل فوراً على مقطع فيديو عالي الدقة يخدم سرديته السياسية.

ويؤكد الخبير والأكاديمي مارك أوين جونز أن إنتاج الدعاية أصبح رخيصاً ومتاحاً للجميع، مما سمح للشبكات المرتبطة بالدول، وكذلك للمتربحين الانتهازيين، بإغراق الفضاء الرقمي بمحتوى تزييفي يفوق الخيال وبحجم يفوق بأضعاف مضاعفة ما شوهد في أوكرانيا.

فيما أشار الصحافي شايان سردارزاده من BBC Verify إلى أن عدد المقاطع المفبركة في هذه الحرب قد يحطم الرقم القياسي الذي سجّلته حرب أوكرانيا، إذ أصبحت الأدوات الجديدة تجعل التزييف أسهل وأرخص.

وتوضح الباحثة في معهد بروكينغز، فاليري ويرتشافتر المتخصصة في السياسة الخارجية والذكاء الاصطناعي، أن وسائل التواصل الاجتماعي والذكاء الاصطناعي تحولت اليوم إلى “أداة حرب” فعلية ومباشرة تستخدمها الدول والجهات الفاعلة غير الحكومية.

فاصل زمني يبلغ أربع سنوات كشف تسارعًا لافتًا في أدوات وقدرات الذكاء الاصطناعي

كيف نكشف التزييف؟ وما حدود أدوات التحقق؟

يمكن تلخيص آلية الفحص الفعالة في النقاط التالية، بناءً على التفسيرات التوجيهية القوية للخبراء:

1- تحليل الظلال، الإضاءة، والفيزياء الدقيقة: غالباً ما تفشل النماذج التوليدية الحالية في الترتيب المنطقي للظلال مع مصادر الضوء المتعددة الناتجة عن الانفجارات الحقيقية.

بالإضافة إلى ذلك، يجب فحص قوانين الفيزياء والنسب الطبيعية للأشياء؛ كفيديو طائرة الـ (F-35) المزعوم الذي أسقطته منصات التحقق، حيث ظهرت تفاصيل عبثية كأحجام البشر غير المتناسبة تماماً مع الماكينات من حولهم، أو دوران المحركات النفاثة بطاقتها القصوى وبشكل مثالي بعد تعرض الطائرة لصاروخ تدميري مباغت، أو غياب حفر الارتطام في الرمال.

2- البحث العكسي المتطور والسياق التاريخي: لم يعد كافياً البحث العكسي عن صورة كاملة، بل يجب أخذ لقطات من الفيديو واستخدام محركات متقدمة ليس فقط للصور بل للمقاطع الزمنية، لاكتشاف ما إذا كان المشهد المليء بالدمار يعود في الحقيقة لحروب سابقة كحرب أوكرانيا، أو غزة، أو حتى حوادث صناعية كارثية في الصين وأمريكا اللاتينية. المزورون يعتمدون على الكسل البشري في التحقق.

3- تحديد الموقع الجغرافي الصارم: مقارنة العلامات البصرية الدقيقة كاللافتات، اتجاه الشوارع، شكل الجبال المحيطة، ونوع الأشجار مع خرائط جوجل أو صور الأقمار الصناعية المؤكدة.

هذا ما حدث حرفياً في تفنيد استهداف قاعدة الرادار الأمريكية في قطر عبر صورة نشرتها صحيفة (Tehran Times)، حيث تبين من خلال تحليل الظلال وتطابق المباني أنها صورة مركبة ومولدة جزئياً تعتمد على قاعدة عسكرية في البحرين التقطت في عام 2025، وتم تغيير إحداثياتها البصرية لتناسب الرواية الدعائية.

4- الأدوات المتقدمة: توفر أدوات مثل SynthID وHive Moderation وInVID وغيرها إمكانية فحص العلامات المائية أو الأنماط التي تميز المحتوى المصنَّع. كما تعمل بعض الأدوات على تحليل الصوت للكشف عن الأصوات الاصطناعية، كما في حالة الفيديو الذي أظهر جنديًا أمريكا يبكي والذي كشفه برنامج Hiya.

إلا أن هذه الأدوات ليست معصومة، إذ يشير الخبراء إلى أن أدوات الكشف لا تنجح دائمًا في التعرف على المحتوى الاصطناعي، خاصة عندما تكون التعديلات طفيفة أو عندما يزيل المنتجون العلامات المائية. وتعتمد منصات مثل ميتا إلى حد كبير على بيانات التعريف، وهو ما يمكن تجاوزه بسهولة بإعادة حفظ الصورة.

كما أن التحذيرات التي أصدرتها إكس بحق المشاركين في برنامج الدخل الذين ينشرون مقاطع مفبركة لا تطبَّق إلا على فئة محدودة من المستخدمين، فيما يستمر الآخرون في تحقيق أرباح من الإقبال على تلك المقاطع.

ومن هنا، فقد أصبح الذكاء الاصطناعي جزءًا بنيويًا من الحروب الحديثة، فلم يعد يكتفي بإنتاج الصور الجميلة أو الروبوتات الذكية، بل صار يُبنى عليه لتوجيه الرأي العام وتحريف الحقيقة.

علاماتأمريكا وإسرائيل ، أمريكا وإيران ، استخدام الذكاء الاصطناعي في الحروب ، البشر في عصر الذكاء الاصطناعي ، الحرب الأمريكية الإسرائيلية على إيران
مواضيعالحرب الأمريكية الإسرائيلية على إيران

قد يعجبك ايضا

سياسة

الأقصى بعد الإغلاق.. هل يتكرّس واقع جديد؟

سندس بعيرات٢٢ مارس ٢٠٢٦
سياسة

بعد أشهر من التحقيق.. لجنة قضائية تبرّئ كريم خان من مزاعم سوء السلوك

سندس عاصم٢١ مارس ٢٠٢٦
سياسة

سوريا.. هل تتحول المناصب إلى ثمن للاستقرار على حساب العدالة؟

مرام موسى٢١ مارس ٢٠٢٦

بعض الحقوق محفوظة تحت رخصة المشاع الإبداعي

↑