ترجمة وتحرير: نون بوست
تسعى الولايات المتحدة إلى استخدام التعلم الآلي لإنشاء وتوزيع الدعاية في الخارج بهدف “التأثير على الجماهير الأجنبية المستهدفة” و”قمع الحجج المعارضة”، وفقًا لوثيقة صادرة عن قيادة العمليات الخاصة الأمريكية اطلع عليها موقع “ذي إنترسبت”.
تكشف الوثيقة، التي تعد بمثابة قائمة أمنيات للعمليات الخاصة للتكنولوجيا العسكرية في المستقبل القريب، عن تفاصيل جديدة حول مجموعة واسعة من القدرات التي تأمل قيادة العمليات الخاصة الأمريكية في شرائها خلال السنوات الخمس إلى السبع المقبلة، بما في ذلك الكاميرات الحديثة وأجهزة الاستشعار والأسلحة الموجهة بالطاقة وغيرها من الأدوات التي تساعد المشغلين في العثور على أهدافهم وقتله،. ومن بين التقنيات التي ترغب في شرائها هو برامج التعلم الآلي التي يمكن استخدامها في حرب المعلومات.
تبحث قيادة العمليات الخاصة الأمريكية عن متعاقدين قادرين على توفير أنظمة “وكيلة” تعتمد على الذكاء الاصطناعي أو نماذج لغوية متعددة (LLMs) لأداء أدوار متخصصة وتوسيع نطاق عمليات التأثير”، وذلك لتحسين “تعزيزات التكنولوجيا المتقدمة لعمليات الدعم المعلوماتي العسكري”، أو ما يعرف أيضًا باسم “ميسو” (MISO).
وتستخدم الأنظمة المسماة “الوكيلة” نماذج التعلم الآلي التي يُزعم أنها تعمل بأقل قدر من التوجيه أو الإشراف البشري، ويمكن دمج هذه الأنظمة مع النماذج اللغوية الكبيرة، مثل “شات جي بي تي”، التي تولد نصوصًا بناءً على مدخلات المستخدم، وبينما تدور الضجة التسويقية حول قدرة هذه الأنظمة الوكيلة و النماذج اللغوية الكبيرة على تنفيذ مهام عادية مثل التسوق عبر الإنترنت وحجز التذاكر، فإن قيادة العمليات الخاصة الأمريكية ترى أن هذه التقنيات قد تكون مناسبة تمامًا لتشغيل منظومة دعائية ذاتية بالكامل.
وتشير الوثيقة إلى أن “بيئة المعلومات تتحرك بسرعة تفوق قدرة العسكريين على التفاعل والتأثير على الجمهور عبر الإنترنت”، مضيفة أن “وجود برنامج مصمم لدعم أهدافنا يمكن أن يمكّننا من التحكم في السردية والتأثير على الجماهير في الوقت الفعلي”.
ورغم أن قوانين وسياسات البنتاغون تحظر الحملات الدعائية العسكرية التي تستهدف الجمهور الأمريكي، إلا أن الطبيعة المفتوحة للإنترنت تجعل من الصعب ضمان ذلك.
وأقر المتحدث باسم قيادة العمليات الخاصة الأمريكية دان ليسارد في بيان له بأن القيادة تسعى للحصول على “قدرات متقدمة مدعومة بالذكاء الاصطناعي”.
وقال لـ”ذي انترسبت”: “جميع القدرات يتم تطويرها وتوظيفها وفقًا لإطار الذكاء الاصطناعي المسؤول التابع لوزارة الدفاع، والذي يضمن الشفافية والمساءلة من خلال إشراف بشري واتخاذ قرارات بشرية. مضيفًا أن “جهود عمليات الدعم المعلوماتي العسكري عبر الإنترنت التي تقوم بها قيادة العمليات الخاصة الأمريكية تتوافق مع القوانين والسياسات الأمريكية، ولا تستهدف الجمهور الأمريكي، بل تهدف لدعم أهداف الأمن القومي في مواجهة التحديات العالمية المتزايدة التعقيد”.
ورغم الأخطاء والمخرجات غير المتوقعة التي قد تنتجها أدوات مثل “شات جي بي تي” و”جيميناي”، فإن قدرتها على إنتاج نصوص فورية بأي موضوع وبأي نبرة — من المزاح إلى الأسلوب الأكاديمي — قد تمثل قفزة نوعية في عالم الدعاية عبر الإنترنت. وهذه الأدوات تتيح تخصيص الرسائل لجماهير متعددة دون الحاجة إلى وقت أو تكلفة بشرية.
وشهدت أدوات مثل “شات جي بي تي “من “أوبن إيه آي” أو “جيميناي” من “غوغل” طفرة في شعبيتها على الرغم من ميلها إلى الوقوع في أخطاء واقعية ونتائجها غير المنتظمة، لكن قدرتها على إنتاج نصوص فورية مكتوبة حول أي موضوع وبأي نبرة تقريبًا – من التهكم إلى الأسلوب شبه الأكاديمي – فد تمثل قفزة نوعية في عالم الدعاية عبر الإنترنت؛ حيث تمنح هذه الأدوات المستخدمين إمكانية ضبط الرسائل الموجهة إلى أي عدد من الجماهير دون الحاجة إلى الوقت أو التكلفة اللذان تحتاجهما العمالة البشرية.
ولا تزال فعالية الدعاية المُنتجة بالذكاء الاصطناعي محل جدل، لكن هذه الممارسة تم توثيقها بالفعل. ففي مايو/ أيار 2024، أصدرت “أوبن إيه آي” تقريرًا يكشف عن محاولات من جهات إيرانية وصينية وروسية لاستخدام أدوات الشركة في حملات تأثير سرية، لكنها لم تكن ناجحة بشكل كبير. وفي تعليقاتها أمام منتدى مجلس الشيوخ الأمريكي حول الذكاء الاصطناعي عام 2023، حذّرت جيسيكا براندت من مؤسسة بروكينغز من أن “النماذج اللغوية الكبيرة قد تزيد من الطابع الشخصي لحملات المعلومات، وبالتالي من قدرتها على الإقناع”، مضيفة أن “الشك في وجود حقيقة موضوعية قد يتزايد” في بيئة معلوماتية مليئة بحملات الحرب الدعائية المدعومة بالذكاء الاصطناعي. وقد وجدت دراسة نشرت عام 2024 في المجلة الأكاديمية “بي إن إيه إس نيكساس” أن “نماذج اللغة يمكن أن تولد نصوصًا تكاد قوة إقناعها بالنسبة للجمهور الأمريكي تقارب قوة إقناع المحتوى الذي حصلنا عليه من حملات دعائية سرية أجنبية في العالم الحقيقي”.
ليس من المستغرب أن المؤسسة الأمنية الوطنية تصر الآن على أن التهديد الذي تشكله هذه التكنولوجيا في أيدي القوى الأجنبية، وبالأخص روسيا والصين، هو تهديد بالغ الخطورة.
في مقال رأي حديث في نيويورك تايمز بعنوان “عصر الدعاية بالذكاء الاصطناعي قد بدأ، وعلى أمريكا أن تتحرك”، حذّر الباحثان بريت بنسون، أستاذ العلوم السياسية بجامعة فاندربيلت، وبريت غولدشتاين، المسؤول السابق في وزارة الدفاع، من برنامج “جولاكسي” الذي طورته شركة “بكين ثينكر” الصينية، وكان يستخدم في الأصل للعب لعبة “جو” اللوحية”، باعتباره أحد أبرز البرامج الناشئة في حملات التأثير الموجهة لصالح الدولة.
ويحذران أيضًا من أن “جولاكسي” قادر على مسح محتوى وسائل التواصل الاجتماعي العامة وإنتاج حملات دعائية مخصصة، ووفقًا لمقال مصاحب كتبه جوليان بارنز، مراسل الأمن القومي في صحيفة التايمز، بعنوان “الصين تلجأ إلى الذكاء الاصطناعي في حرب المعلومات”، فإن “الشركة تدعي سرًا أنها تستطيع استخدام تقنية جديدة لإعادة تشكيل الرأي العام والتأثير عليه نيابة عن الحكومة الصينية”. ويكمل الخبر بنبرة حادة مماثلة: “يمكن لـ”جولاكسي” صياغة ردود سريعة تعزز آراء الحكومة الصينية وترد على الحجج المعارضة. وبمجرد استخدامها، يمكن أن تطغى هذه المنشورات بدعايتها على النقاش الطبيعي”. ووفقًا لهذه المواد، تقول صحيفة التايمز إن “جولاكسي “قامت بحملات تأثير في هونغ كونغ وتايوان، وجمعت بيانات عن أعضاء الكونغرس وغيرهم من الأمريكيين المؤثرين”.
ويرى بنسون وغولدشتاين أن هناك حاجة إلى “استجابة منسقة” بين الحكومة والأوساط الأكاديمية والقطاع الخاص للتصدي لهذا التهديد الأجنبي، ويصفان هذه الاستجابة بأنها ذات طبيعة دفاعية: تحديد ومواجهة الدعاية الأجنبية في مجال الذكاء الاصطناعي.
هذا ليس ما تشير الوثيقة الصادرة عن مركز المشتريات والتكنولوجيا واللوجستيات التابع لقوات العمليات الخاصة بأن البنتاغون يسعى إليه.
وتُظهر الوثيقة أن قيادة العمليات الخاصة الأمريكية تعتقد أنها بحاجة إلى تكنولوجيا تتطابق بشكل وثيق مع القدرات الصينية المُبلغ عنها، مع استخدام روبوتات لمسح واستيعاب كميات كبيرة من المحادثات على الإنترنت لإقناع السكان المستهدفين، أو الأفراد، بشكل أفضل بشأن أي موضوع معين.
وتقول قيادة العمليات الخاصة إنها تريد على وجه التحديد “أنظمة آلية لجمع المعلومات من البيئة المعلوماتية وتحليل الوضع والرد برسائل تتماشى مع أهداف عمليات التأثير العسكري، ويجب أن تكون هذه التكنولوجيا قادرة على الرد على المنشورات وقمع الحجج المعارضة وإنتاج مواد مرجعية يمكن الاستناد إليها لدعم الحجج والرسائل الصديقة”.
ويولي البنتاغون اهتمامًا خاصًا لأولئك الذين قد ينتقدون جهوده الدعائية.
وتشير الوثيقة إلى أن “هذا البرنامج يجب أن يكون قادرًا أيضًا على الوصول إلى الملفات الشخصية والشبكات وأنظمة الأفراد أو المجموعات التي تحاول مواجهة رسائلنا أو تشويه سمعتها. يجب أن تستخدم هذه القدرة المعلومات التي تم الحصول عليها لإنشاء رسالة أكثر استهدافًا للتأثير على ذلك الفرد أو تلك المجموعة المحددة”.
وبحسب الوثيقة فإن قيادة العمليات الخاصة الأمريكية تتوقع استخدام الأنظمة التوليدية لصياغة رسائل دعائية ومحاكاة كيفية استقبال هذه الدعاية عند نشرها، كما تأمل قيادة العمليات الخاصة الأمريكية في استخدام “أنظمة وكيلة تحاكي المعرفة والمهارات والقدرات والسمات الشخصية والاجتماعية والثقافية المطلوبة للأدوار المختلفة للأفراد الذين يتألف منهم الفريق”، قبل الانتقال إلى “العصف الذهني واختبار الحملات التشغيلية ضد نسخ وكيلة للأفراد والمجموعات”. وهذه المحاكاة أكثر تعقيدًا من مجموعات التركيز؛ حيث تدعو إلى “نماذج شاملة للمجتمعات بأكملها لتمكين مخططي عمليات التأثير العسكري من استخدام هذه النماذج لتجربة أو اختبار سيناريوهات متعددة”.
وتستمر قائمة أمنيات قيادة العمليات الخاصة الأمريكية في تضمين الحاجة إلى قدرات هجومية في مجال التزييف العميق، وهو ما نشر موقع “ذي انترسبت” تقريرًا عنه لأول مرة في 2023.
وقد أثارت احتمالية قيام نماذج اللغة الكبيرة (LLMs) بإنتاج كم هائل من الدعاية المصممة بمهارة قلقًا كبيرًا، لكن هذا القلق غالبًا ما يُطرح في سياق كون الولايات المتحدة هدفًا لها، وليس جهة فاعلة.
وحذرت منظمة “فريدوم هاوس” غير الربحية، التي تمولها وزارة الخارجية الأمريكية، في تقرير صدر عام 2023 من “القوة القمعية للذكاء الاصطناعي”، متوقعة أن “حملات التضليل المدعومة بالذكاء الاصطناعي ستزداد بشكل كبير مع تطوير الجهات الخبيثة لطرق إضافية لتجاوز الإجراءات الوقائية واستغلال النماذج مفتوحة المصدر”. وحذر التقرير من أن “الذكاء الاصطناعي التوليدي يجذب انتباه الأنظمة الاستبدادية”، مشيرًا إلى احتمال استخدامه من قبل الصين وروسيا، لكنه لم يذكر سوى الاستخدام المحلي لهذه التكنولوجيا في فقرة موجزة تناولت الحملات الرئاسية لرون ديسانتيس ودونالد ترامب، بالإضافة إلى مقطع فيديو مزيف لجو بايدن تم التلاعب به لتصوير الرئيس السابق وهو يدلي بتصريحات معادية للمتحولين جنسيًا. إن مدى القلق العام بشأن آلة الدعاية الآلية القادرة على الوصول العالمي يعتمد على نطاق استخدامها، وفقًا لأندرو لون، المدير السابق للتكنولوجيا الناشئة في مجلس الأمن القومي.
وقال لون، الذي يشغل الآن منصب زميل أول في مركز الأمن والتكنولوجيا الناشئة بجامعة جورجتاون: “لن أقلق كثيرًا إذا اقتنع بعض الجنود الأجانب خطأً بأن عمليتنا الخاصة ستحدث صباح الأربعاء بواسطة مروحية من الشرق بدلًا من ليلة الثلاثاء بواسطة قارب من الغرب”.
لدى الجيش الأمريكي تاريخ في التلاعب بالسكان المدنيين لأغراض سياسية أو أيديولوجية. وقد كُشف عن مثال مقلق في عام 2024، عندما أفادت وكالة رويترز بأن وزارة الدفاع الأمريكية أدارت حملة سرية على وسائل التواصل الاجتماعي ضد اللقاحات لزعزعة الثقة العامة في لقاح كوفيد الصيني، خوفًا من أن فعاليته قد تدفع دولًا آسيوية نحو التقارب مع خصم جيوسياسي كبير. وقد وصفت التغريدات التي أنشأها البنتاغون لقاح سينوفاك -كورونافاك الصيني – الذي وصفته منظمة الصحة العالمية بأنه “آمن وفعال” — بأنه “مزيف” وغير جدير بالثقة. ووفقًا لتقرير رويترز، فإن الجنرال جوناثان براغا، قائد قيادة العمليات الخاصة في منطقة المحيط الهادئ آنذاك، “ضغط على رؤسائه في واشنطن للرد في ما يسمى بـ’الفضاء المعلوماتي'” من خلال دعم الحملة الدعائية السرية.
وقال ويليام مارسيلينو، عالم السلوك في مؤسسة راند، الذي يركز على الجغرافيا السياسية لأنظمة التعلم الآلي وعمليات شراء البنتاغون، لـ”ذي إنترسبت” إن هذه الأنظمة تُبنى بدافع الضرورة. وأضاف: ” إن أنظمة مثل تلك التي تستخدمها الصين وروسيا تشارك في جهود تأثير خبيثة مدعومة بالذكاء الاصطناعي وعلى نطاق واسع”، محذرًا من أن المجموعات المرتبطة بالدولة في الصين “صممت بشكل صريح أنظمة مدعومة بالذكاء الاصطناعي واسعة النطاق للحرب على الرأي العام”.
وقال: “إن مواجهة تلك الحملات تتطلب على الأرجح استجابات مدعومة بالذكاء الاصطناعي على نطاق واسع”.
أعلنت قيادة العمليات الخاصة الأمريكية في السنوات الأخيرة بشكل صريح رغبتها في أنظمة دعائية تُنشأ بواسطة الذكاء الاصطناعي، وتشير هذه التصريحات إلى اهتمام أوسع يشمل عمليات التأثير على مجموعات سكانية كاملة، بدلاً من التركيز بشكل محدود على الأفراد العسكريين
في عام 2019، تحدث مسؤول رفيع المستوى في العمليات الخاصة بالبنتاغون في ندوة دفاعية عن “حاجة البلاد إلى تجاوز نهجنا في نقل الرسائل الذي يعود إلى القرن العشرين والبدء في النظر إلى التأثير كجانب أساسي من جوانب الحرب غير النظامية الحديثة”، وأشار المسؤول إلى أن هذا “سيتطلب أيضًا شراكات جديدة تتجاوز الجهات الفاعلة التقليدية، في جميع أنحاء العالم، من خلال الجهود الرامية إلى تضخيم أصوات المنظمات غير الحكومية والمواطنين الأفراد الذين يكشفون الأنشطة الخبيثة لمنافسينا“. في العام التالي، أعرب الجنرال ريتشارد كلارك، قائد قيادة العمليات الخاصة الأمريكية آنذاك، عن اهتمامه باستخدام الذكاء الاصطناعي لتحقيق هذه الغايات.
وقال كلارك في تصريحات نُشرت لأول مرة عام 2020 في مجلة الدفاع الوطني: “عندما ننظر إلى القدرة على التأثير والتشكيل في بيئة المعلومات هذه، سنحتاج إلى أدوات الذكاء الاصطناعي والتعلم الآلي، خاصة لعمليات المعلومات التي تغطي نطاقًا واسعًا للغاية، لأننا سنحتاج إلى فهم طريقة تفكير الخصم وطريقة تفكير السكان والعمل في هذه المجالات”.
وحذرت هايدي خلاف، كبيرة العلماء في معهد “إيه آي ناو” ومهندسة السلامة السابقة في “أوبن إيه آي”، من اتباع نهج مكافحة النار بالنار: “إن تصوير استخدام الذكاء الاصطناعي التوليدي والوكيل على أنه مجرد وسيلة لتخفيف استخدام الخصوم هو تصوير خاطئ لهذه التكنولوجيا، لأن الاستخدامات الهجومية والدفاعية هي في الواقع وجهان لعملة واحدة وستسمح لهم باستخدامها بالطريقة نفسها التي يستخدمها الأعداء”.
وقد تنتهي الحملات الآلية للتأثير عبر الإنترنت بنتائج غير مثيرة، وفقًا لما قاله إيمرسون بروكينغ، الزميل الأول في مختبر الأبحاث الجنائية الرقمية التابع لمجلس الأطلسي. “كانت روسيا تستخدم برامج الذكاء الاصطناعي لأتمتة عمليات التأثير الخاصة بها، لكن البرنامج ليس جيدًا جدًا”.
وحذر بروكينج من أن ميل نماذج اللغة الكبيرة إلى اختلاق الأكاذيب وترسيخ التصورات المسبقة عند مطالبة المستخدمين بذلك قد يشكل أيضًا نقطة ضعف كبيرة. وقال: “بما أن مهمتهم هي فهم ’قلوب وعقول‘ بلد معقد ولم يتم دراسته بشكل كافٍ، فقد يعتمدون بشكل كبير على الذكاء الاصطناعي لمساعدتهم، والذي من المرجح أن يخبرهم بما يريدون سماعه بالفعل”.
وأضافت خلاف أن الأنظمة “الوكيلة”، التي تروج لها شركات التكنولوجيا على نطاق واسع باعتبارها عقولًا رقمية مستقلة، لا تزال عرضة للأخطاء وغير قابلة للتنبؤ. وقالت لـ”ذي انترسبت”: “إن إدخال الذكاء الاصطناعي الوكيل في حملات التضليل هذه يضيف طبقة من المخاوف المتعلقة بالسلامة والأمن؛ حيث أظهرت العديد من نتائج الأبحاث مدى سهولة التلاعب بسلوك الذكاء الاصطناعي الوكيل وتحويله عن مساره. ومع عدم حل هذه المشكلات الأمنية، فإن قيادة العمليات الخاصة الأمريكية لا تعرض حملاتها للخطر فحسب، بل تنتج أيضًا مواد لم تكن مقصودة”.
وأشار بروكينغ، الذي عمل سابقًا كمستشار لمكتب وكيل وزارة الدفاع للسياسات في مسائل الأمن السيبراني، إلى السجل المتباين للجهود الدعائية الأمريكية السابقة عبر الإنترنت. ففي عام 2022، كشف الباحثون عن شبكة من حسابات تويتر وفيسبوك كانت تُدار سرًا من قبل القيادة المركزية الأمريكية، وكانت تروج لمقالات إخبارية زائفة تحتوي على مواضيع مناهضة لروسيا وإيران، وقد فشلت هذه الشبكة في جذب الانتباه على أي من المنصتين، وسرعان ما أصبحت مصدر إحراج للبنتاغون.
وقال: “نعلم من تقارير عامة أخرى أن الولايات المتحدة سعت منذ فترة طويلة إلى ‘قمع الحجج المعارضة’ وخلق تغطية إعلامية إيجابية في مناطق معينة من العمليات”. وأضاف: “نعلم أيضًا أن هذه الجهود لم تنجح بشكل كبير، بل إنها ربما كانت مصدر إحراج كبير أو أتت بنتائج عكسية عند كشفها للجمهور الأمريكي. إن الذكاء الاصطناعي يميل إلى جعل هذه الحملات أكثر غباءً، لا أكثر فعالية”.
المصدر: ذي انترسبت