نون بوست نون بوست

نون بوست

  • الرئيسية
  • سياسة
  • اقتصاد
  • مجتمع
  • ثقافة
  • ملفات
  • معمقة
  • بودكاست
EN
الاشعارات عرض المزيد
نون بوست
ترامب هدد بالاستيلاء عليها قبل 40 عامًا.. غزو جزيرة “خارك” لن يُخضع إيران
نون بوست
عصر الحرب الرقمية: مراكز البيانات تتحول إلى أهداف عسكرية
نون بوست
حصار ما بعد الإبادة.. كيف يُقتل مصابي غزة انتظارًا للعلاج؟
نون بوست
وصمة “الدولة”.. إرث ثقيل يلاحق نساء وأطفال عناصر التنظيم
جرى رصد أكثر من 110 حالات مؤكدة لصور ومقاطع فيديو مفبركة كلياً
كيف تحول الـ AI إلى جبهة دعائية موازية خلال الحرب على إيران؟
نون بوست
الأقصى بعد الإغلاق.. هل يتكرّس واقع جديد؟
نون بوست
بعد أشهر من التحقيق.. لجنة قضائية تبرّئ كريم خان من مزاعم سوء السلوك
حقل نفط في كركوك بالعراق يوم 18 أكتوبر 2017 (رويترز)
إغلاق مضيق هرمز.. كيف أعاد الحياة إلى خط كركوك–جيهان؟
نون بوست
سوريا.. هل تتحول المناصب إلى ثمن للاستقرار على حساب العدالة؟
نون بوست
جمهوريون يصعّدون حملاتهم ضد المسلمين.. ويُحققون مكاسب سياسية
نون بوست
الـai في الحروب: كيف يحول “كلود” البيانات إلى خطط قتالية؟
نون بوست
قطاع السياحة في دبي يترنح تحت وطأة الصواريخ الإيرانية
نون بوست نون بوست
EN
الاشعارات عرض المزيد
نون بوست
ترامب هدد بالاستيلاء عليها قبل 40 عامًا.. غزو جزيرة “خارك” لن يُخضع إيران
نون بوست
عصر الحرب الرقمية: مراكز البيانات تتحول إلى أهداف عسكرية
نون بوست
حصار ما بعد الإبادة.. كيف يُقتل مصابي غزة انتظارًا للعلاج؟
نون بوست
وصمة “الدولة”.. إرث ثقيل يلاحق نساء وأطفال عناصر التنظيم
جرى رصد أكثر من 110 حالات مؤكدة لصور ومقاطع فيديو مفبركة كلياً
كيف تحول الـ AI إلى جبهة دعائية موازية خلال الحرب على إيران؟
نون بوست
الأقصى بعد الإغلاق.. هل يتكرّس واقع جديد؟
نون بوست
بعد أشهر من التحقيق.. لجنة قضائية تبرّئ كريم خان من مزاعم سوء السلوك
حقل نفط في كركوك بالعراق يوم 18 أكتوبر 2017 (رويترز)
إغلاق مضيق هرمز.. كيف أعاد الحياة إلى خط كركوك–جيهان؟
نون بوست
سوريا.. هل تتحول المناصب إلى ثمن للاستقرار على حساب العدالة؟
نون بوست
جمهوريون يصعّدون حملاتهم ضد المسلمين.. ويُحققون مكاسب سياسية
نون بوست
الـai في الحروب: كيف يحول “كلود” البيانات إلى خطط قتالية؟
نون بوست
قطاع السياحة في دبي يترنح تحت وطأة الصواريخ الإيرانية
  • الرئيسية
  • سياسة
  • اقتصاد
  • مجتمع
  • ثقافة
  • ملفات
  • معمقة
  • بودكاست
تابعنا

التزوير العميق بقيادة الذكاء الاصطناعي ينذر بمستقبل مشؤوم

جون لوفلر
جون لوفلر نشر في ١٣ يونيو ,٢٠١٩
مشاركة
deepfakes-are-evil_resize_md

ترجمة وتحرير نون بوست

عمل الباحثون على تطوير برنامج جديد قائم على الذكاء الاصطناعي يدعى “ديب فايكس” لتزييف الفيديوهات من خلال تعديل أقوال شخص ما لجعله يقول ما ترغب فيه عن طريق كتابة ما تريد أن يقوله بكل بساطة. وتمثّل هذه الخطوة قفزة نوعية أخرى في تقنية لا تعود بأي فائدة اجتماعية فعلية سوى مساعدة إستوديوهات إنتاج الأفلام على توفير الأموال. وتسمح الحكومات الاستبدادية في جميع أنحاء العالم بإساءة استخدام هذه التقنية بهدف تشويه سمعة الأصوات المعارضة وممارسة الأفعال الانتقامية من خلال نشر مقاطع فيديو إباحية وتأجيج الصراع الاجتماعي.

استمرّ العلماء في كل من جامعتي ستانفورد وبرنستون ومعهد ماكس بلانك للمعلوماتية وأدوبي للأبحاث في العمل على تقديم حجج أوّلية تفسّر السبب وراء انعدام ثقة الأشخاص في تكنولوجيا تطوير منصة برمجيات جديدة تسمح للمرء بتعديل النسخة الأصلية لنص يخصّ خطابا مسجّلا ألقاه شخص ما بهدف تغيير الفيديو وتحريف أقوال هذا الشخص.

تعمل هذه التكنولوجيا عن طريق مطابقة الوحدة الصوتية أو ما يعرف بالفونيم، وهي عملية معالجة اللغة الطبيعية للأصوات المختلفة مع دراسة الجانب المرئي وملامح الوجه الناتجة عن هذه الوحدات الصوتية كلما تحدّث الشخص. وفي المرحلة التالية، تُوظَّف تقنية الذكاء الاصطناعي لفبركة الفيديو الجديد بناءً على النسخة المُعدّلة ومطابقة صوت المتحدّث مع النص المعدّل.

وفقًا للباحثين: “يضع النهج القائم على تعديل النص الأسس من أجل تعزيز الأدوات المستخدمة في التحرير خلال مرحلة ما بعد إنتاج الأفلام. وغالبًا ما تتطلب مشاهد الحوار المصورة إعادة ضبط التوقيت أو التحرير بناءً على تغييرات نصية صغيرة، ما يستدعي حاليًا عملا يدويا شاقا. وتضمن تقنية التحرير سهولة التكيّف على مستوى المحتوى المرئي والمسموع للفيديو والموجّه نحو فئات مستهدفة محددة. فعلى سبيل المثال، يمكن تعديل مقاطع فيديو الإرشادات مع جماهير من مختلف الخلفيات الاجتماعية أو يمكن تعديل مقطع فيديو لسرد القصص مع أطفال من مختلف الفئات العمرية بالاستناد إلى تعديلات نصية. باختصار، تهدف الجهود المبذولة إلى تطوير سرد القصص”.

من المهم أن نستمر في تطوير تقنيات علم الأدلة الجنائية وبصمات الأصابع وتقنيات التحقق (الرقمية وغير الرقمية) لكشف الفيديو المزور الذي وقع التلاعب به

في المقابل، يعترف الباحثون بأنه يمكن لبعض الجهات الفاعلة الفاسدة محاولة استخدام هذه التكنولوجيا لأغراض دنيئة، كما يقدمون بعض الحلول المحتملة لهذه المشكلة الحتميّة. في هذا الصدد، كتب الباحثون: “تزداد مخاطر ارتكاب الانتهاكات لاسيما عندما تُطبّق على وسيلة اتصال تُعتبر أحيانًا دليلا موثوقًا على الأفكار والنوايا. ونحن نقر بأن الجهات الفاعلة ذات النوايا السيئة قد تستخدم هذه التقنيات لتزوير البيانات الشخصية والتشهير بالشخصيات المرموقة، ونحن نشعر بالقلق إزاء هذا الخداع وسوء الاستخدام”.

في سياق متصل، أضاف هؤلاء الباحثين: “نعتقد أنه من المهم أن يظهر الفيديو المركب باستخدام أدواتنا على أنه محتوى مركّب. وفي الحقيقة، قد يكون الفيديو المفبرك واضحا وفقا للسياق الذي وضع فيه (على سبيل المثال، في حال كان الجمهور يشاهد فيلما خياليا)، ويمكن الإشارة إلى ذلك مباشرة في الفيديو أو عبر العلامة المائية. ونعتقد أيضا أنه من الضروري الحصول على إذن من الممثلين عند القيام بأي تغيير على المشاهد قبل مشاركة النسخة النهائية من مقطع الفيديو مع قاعدة جماهيرية كبيرة”.

في نهاية المطاف، من المهم أن نستمر في تطوير تقنيات علم الأدلة الجنائية وبصمات الأصابع وتقنيات التحقق (الرقمية وغير الرقمية) لكشف الفيديو المزور الذي وقع التلاعب به. وقد تقلل تدابير الحماية هذه من إمكانية سوء الاستخدام وتسمح لنا باستخدام تقنيات تحرير الفيديو بشكل مبتكر على غرار تقنياتنا. كما ينبغي علينا أخذ مثل هذه التدابير في كل مرة بعين الاعتبار.

أولا، إن الفكرة القائلة إن تقنية “ديب فايكس” تقدم نفسها بشكل واضح على هذا النحو تكشف عن فهم ساذج للدعاية. ففي الحقيقة، كان ستالين ليجد مثل هذه الطرق جذابة وكانت أي حكومة استبدادية أو حركة سياسية لتستخدم هذه التكنولوجيا في المستقبل لاستهداف المنشقين والمعارضين السياسيين والأقليات العرقية أو الدينية.

ثانيا، في حال تمكن الذكاء الاصطناعي من إنشاء مقاطع فيديو مفبركة، فيمكن لشبكة ذكاء اصطناعي إزالة العلامة المائية بطريقة أسهل. أما ثالثا، فمن المؤكد أن الموافقة على تعديل خطابك كممثل يعتبر أمرا إيجابيا في صناعة الأفلام، لكن تتغير المفاهيم في حال شرع شخص في إنشاء محتويات مفبركة وغير مشروعة. ومن جهتها، لا تسعى الجهات الفاعلة التي تقوم بمثل هذه الأعمال الضارة إلى الحصول على الموافقة على إنشاء محتوى مزيف وإباحي لأحد المشاهير أو التشهير وتشويه الآخرين وفقا لأجندة معينة.

لطالما اعتبرت صناعة التكنولوجيا منقذا لوقتنا وأموالنا وخير مثال لروح المبادرة، لكن التصدّعات التي لحقت بصورتها العامة بدأت في الانتشار

أخيرا، إن إنشاء أدوات لاكتشاف عمليات التزوير لا يجدي نفعا، لاسيما في ما يتعلق بالدعاية. وعلى الرغم من أن “بروتوكولات حكماء صهيون” تعد عملية تزوير عمرها أكثر من قرن يعود تاريخها لروسيا القيصرية سيئة السمعة، إلا أنها لا تزال تستخدم بنجاح لتأجيج معاداة السامية في جميع أنحاء العالم حتى يومنا هذا. فكم سيمضي من الوقت قبل أن يبدأ تداول مقاطع فيديو عبر الإنترنت لجورج سوروس يتحدث فيها عن استخدام دماء الأطفال المسيحيين في صناعة الحلويات اليهودية؟ وهل من المفترض تصديق أن عملية إثبات فبركة مقاطع الفيديو هي كل ما نحتاجه لمنع هذه المحتويات من إلحاق ضرر كبير؟

سوف تتسبب هذه التكنولوجيا في تصفية الشعوب بأكملها

لطالما اعتبرت صناعة التكنولوجيا منقذا لوقتنا وأموالنا وخير مثال لروح المبادرة، لكن التصدّعات التي لحقت بصورتها العامة بدأت في الانتشار. ويوشك سائقو أوبر وليفت على القيام بتمرد مفتوح بخصوص أجورهم المتدنية. ويحاول موقع فيسبوك بشكل يائس ومثير للسخرية أن يعيد تقديم نفسه على أنه “شبكة تركز على الخصوصية” حتى في الوقت الذي يواصل فيه نشر البيانات الشخصية لمستخدميه في العالم.

يمكن للباحثين الذين يعملون على عمليات التزوير باستعمال الذكاء الاصطناعي إعلامنا بشكل مباشر أن الحل لإساءة استخدام الدعاية لتقنيتهم ​يتمثل في العلامة المائية أو الوثوق في تقنية أخرى من أجل إنقاذنا من مخاطر التكنولوجيا التي يقومون بإنشائها.

لقد كشفت الانتخابات الرئاسية الأمريكية لسنة 2016 للعالم أن تكنولوجيا المعلومات منخفضة التكلفة يمكن أن ينجر عنها تأثيرات كبيرة، فضلا عن القيمة الدعائية المخيفة لتقنية ديب فايكس في جميع أنحاء العالم. وقد أثار مقطع فيديو صدر ليلة رأس السنة لرئيس الغابون، علي بونغو أونديمبا، أزمة سياسية بعد أن طعن البعض من منتقديه، بما في ذلك الجيش، في مصداقيته واعتبروه مفبركا ويهدف إلى إخفاء الوضع الراهن للرئيس.

إن تحديد ما إذا كان الفيديو مزيفا أم لا قد لا يكون أمرا سهلا، وبصراحة إن هذا ليس موضوعنا. في الواقع، إن حقيقة وجود هذه التقنية لها تأثيرات سلبية، لأنه يمكن بسهولة استخدام مقاطع الفيديو المزيفة لتشويه سمعة بعض المعارضين أو دعم القادة الفاشلين أو نشر معلومات خاطئة أخرى، حيث يمكن للناس عدم تصديق بعض الفيديوهات التي قد لا تعجبهم والاعتقاد بأنها مزيفة في حين أنها حقيقية. وفي المستقبل، ستكون عملية إثبات ما إذا كان الفيديو مفبركا أم لا مفيدة للغاية، وستكون العملية مشابهة لعملية التحقق من الأخبار المضللة.

صنع فيديو مزيف يظهر فيه زعيم أو شخصية دينية أو عرقية أقلية وهو يعترف بارتكابه لبعض الجرائم الفظيعة سيكون دافعا للتحريض على ارتكاب إبادة جماعية

يطالب الباحثون الذين طوّروا هذه التقنية الجديدة بجميع أنواع الضمانات التي ينبغي وضعها لحماية العالم من عواقب هذه التقنية، لكنهم بينما يسارعون إلى تطوير هذه التقنية من أجل إنتاج مقاطع فيديو مزيفة، فإنه لا يبدو أن هناك من يهتم لهذه الضمانات.

في المقابل، يثق مطورو برنامج “ديب فايك” أن معظم سكان العالم يتحكّمون في مصادر المعلومات الخاصة بهم، مما يعني أنهم قادرون على اكتشاف ما إذا كان الفيديو الذي شاهدوه للتو على التلفزيون الحكومي مزيفا أم لا، كما يبدو أنه ليس لديهم أي مشكل في القيام بذلك بمفردهم.

لا يمكن الحد من عواقب هذه التقنية. ففي سنة 1994، أسفر سقوط طائرة تقل رئيس رواندا عن مقتل جميع من كانوا على متنها. وعلى خلفية ذلك، ألقت حكومة الهوتو في رواندا اللوم على جيش من متشددي التوتسي مما تسبب في إبادة جماعية استمرت مئة يوم راح ضحيتها مليون شخص من شعب التوتسي. كما تسببت الصراعات المختلفة في البلقان في مقتل أكثر من مئة ألف شخص منذ تفكك يوغوسلافيا. وقد كانت الحكومات تختلق منذ زمن طويل افتراءات وأكاذيب للتحريض على المذابح ضد اليهود والأقليات المضطهدة الأخرى.

يمكن لمثل هذه التوترات والمشاكل التي تحدث الآن في جميع أنحاء العالم أن تتسبب في أي لحظة في اندلاع حرب أو إبادة جماعية، فصنع فيديو مزيف يظهر فيه زعيم أو شخصية دينية أو عرقية أقلية وهو يعترف بارتكابه لبعض الجرائم الفظيعة سيكون دافعا للتحريض على ارتكاب إبادة جماعية. وحتى يومنا هذا، لا أحد يعرف من هو الشخص المسؤول عن إسقاط طائرة الرئيس الرواندي، لكن الاتهامات هي التي تسببت في حصول هذه المجازر.

لا تشبه جميع القصص الأخرى قصة مجزرة 1994 في رواندا، فأحيانا لا يكون الاتهام كافيا. لكن ما الذي يدفعك لتوجيه الاتهامات في حين أن لديك اعترافا؟ لا شيء قادر على منع تقنية التزوير من أن تكون النسخة الجديدة من بروتوكولات حكماء صهيون للقرن الحادي والعشرين. ومن المؤكد أن هذا النوع من التزوير قد أصبح الآن أمرًا حتميًا وقد يلقى الكثير من الناس حتفهم بسببه لا محالة.

في حال تلقى الأشخاص المشاركون في صنع هذه التكنولوجيا التعليمات المناسبة في مجال الأخلاقيات أو حتى في مجال التاريخ، فإن هذه التكنولوجيا لم تكن لتتجاوز مرحلة الاقتراح

في مقاله الذي نشره موقع “ماثر جونز”، سلط علي بريلاند الضوء على الجدل الذي أثاره الفيديو المزيف للرئيس الغابوني، حيث كتب: “في الوقت الذي ركزت فيه وسائل الإعلامية على السيناريوهات الرهيبة التي يمكن استخدامها ضد الولايات المتحدة ودول غربية أخرى، حذّر الخبراء من أن تلك المصادمات يمكن أن تسبب الكثير من الفوضى في البلدان النامية، التي غالبًا ما تكون حكوماتها هشة وأغلب سكانها لا يعرفون كيفية استخدام التكنولوجيا الرقمية”.

في بعض الحالات، قد يتسبب صنع مقطع فيديو مزيف يظهر فيه الرئيس التنفيذي لشركة أمازون جيف بيزوس وهو يعلن عن تقاعده في ارتفاع أسهم الشركة، في حين يمكن أن تتسبب بعض المعلومات الخاطئة في بعض البلدان إلى حدوث انقلابات وحالات صراع وعنف مما قد يهدد استقرار دول بأكملها.

في مقال نُشر مؤخرًا في صحيفة “نيويورك تايمز”، تعتقد أستاذة الفلسفة في جامعة يورك في تورنتو الدكتورة ريجينا ريني أن الأوان قد فات بالفعل للعودة وهي ترى أنه يجب علينا أن نجهّز أنفسنا لمعالجة الفيديو كما لو أننا نتعامل مع شهادة أو أدلة وثائقية. وأضافت ريني أنه “من الواضح أن المعلومات الحالية حول الأخبار المزيفة ليست سوى لمحة عما سيحدث لاحقا عندما تصبح الأصوات والصور وليس الكلمات فقط عرضة للتلاعب من قبل أي شخص لديه جهاز كمبيوتر جيّد نسبيا”.

الأخلاق

في حال تلقى الأشخاص المشاركون في صنع هذه التكنولوجيا التعليمات المناسبة في مجال الأخلاقيات أو حتى في مجال التاريخ، فإن هذه التكنولوجيا لم تكن لتتجاوز مرحلة الاقتراح، وأي شخص دافع عنها كان ليطرد من قبل أولئك المديرين الذين تلقوا تعليما أخلاقيا مناسبا. ونظرًا لأن جميع المسؤولين في الشركات والمؤسسات التي طورت هذه التكنولوجيا لا يعتقدون أن مثل هذه التقنيّة خطيرة بما يكفي لمنع تطويرها، فلعل الوقت قد حان لكي يتدخل المجتمع ويمنح هؤلاء الأشخاص التعليمات الضروريّة.

يبدو أن المجتمع مبني وفق مستوى معين من الثقة، إلا أن هذه التكنولوجيا تدمر ببساطة جزءا من تلك الثقة المكتسبة بصعوبة بين الطرفين والتي لا يمكن إصلاحها بسهولة

من جهة أخرى، يبدو أن الباحثين المعنيين يقدّرون هذه النقطة، إذ كتبوا التالي: “نعتقد أن إجراء محادثة عامة قوية أمر ضروري لإنشاء مجموعة من اللوائح التنظيميّة والقوانين المناسبة التي من شأنها الموازنة بين مخاطر إساءة استخدام هذه الأدوات وأهمية الاستخدامات الإبداعيّة والتوافقيّة”. ومع ذلك، لم يكن من المفترض أن تصل الأمور إلى هذا الحد، لأن “حالات الاستخدام الإبداعيّة والتوافقية” تتضاءل أهميتها بسبب الضرر الهائل الذي يمكن أن يحدثه “إساءة استخدام” تكنولوجيتها.

من هذا المنطلق، يستطيع أي شخص عقلاني أن يستنتج أنه لا يمكن لأي فائدة قد تمنحها هذه التكنولوجيا للصناعة تبريرَ الضرر الذي ستلحقه بالمجتمع. علاوة على ذلك، يبدو أن صناعة التكنولوجيا خالية من الأشخاص العقلانيين، بما أنهم لا يستطيعون منع أنفسهم من التدخّل ما إن تعترضهم إحدى الفئات الاجتماعية التي يمكنهم “تعطيلها”.

تكشف هذه التكنولوجيا أنه لم يعد بإمكاننا الوثوق بما نراه بأعيننا. وقد يحرص المرء على أهميّة أن نكون يقظين دائمًا في مواجهة المعلومات الخاطئة، ولكن هذا الأمر غير مجدٍ كذلك. فمن يريد أن يقضي كل لحظة من يومه في قراءة المعلومات أو عرضها أو تحليلها في ظلّ هذا النوع من الشكوك الدائم؟ علما بأن هذا الأمر يتطلب مستوى تعليمي معين وطاقة عقلية لا يمتلكها الجميع ولا يستطيع أي أحد الحفاظ عليها إلى الأبد.

في نهاية المطاف، يبدو أن المجتمع مبني وفق مستوى معين من الثقة، إلا أن هذه التكنولوجيا تدمر ببساطة جزءا من تلك الثقة المكتسبة بصعوبة بين الطرفين والتي لا يمكن إصلاحها بسهولة، في حال وجدت في المقام الأوّل. ولكن، في حال كنت تعمل على تعديل بسيط لبرنامج نصي وكنت بحاجة إلى إعادة تصوير 15 ثانية من الحوار، فإن هذه التكنولوجيا جديرة بالتكلفة الاجتماعية التي ندفعها من أجلها.

المصدر: إنترستنغ إنجينيرينغ

الوسوم: الإبداع والذكاء الاصطناعي ، البشر في عصر الذكاء الاصطناعي
الوسوم: الذكاء الاصطناعي
تحميل هذا المقال بصيغة PDF
شارك هذا المقال
فيسبوك تويتر واتساب واتساب التليجرام البريد الإلكتروني نسخ الرابط
جون لوفلر
بواسطة جون لوفلر مبرمج وكاتب أمريكي لموقع انتريستنغ انجينيرنغ
متابعة:
مبرمج وكاتب أمريكي لموقع انتريستنغ انجينيرنغ
المقال السابق ca-majalla1-25oct-photo1 الحرب وضعف الإنتاج يسيران بالاقتصاد الليبي إلى الهاوية
المقال التالي 636809927101453788 بطولات منسية في السودان.. ملايين الفقراء يكافحون من أجل الكرامة

اقرأ المزيد

  • عصر الحرب الرقمية: مراكز البيانات تتحول إلى أهداف عسكرية عصر الحرب الرقمية: مراكز البيانات تتحول إلى أهداف عسكرية
  • كيف تحول الـ AI إلى جبهة دعائية موازية خلال الحرب على إيران؟
  • الأقصى بعد الإغلاق.. هل يتكرّس واقع جديد؟
  • بعد أشهر من التحقيق.. لجنة قضائية تبرّئ كريم خان من مزاعم سوء السلوك
  • سوريا.. هل تتحول المناصب إلى ثمن للاستقرار على حساب العدالة؟
part of the design
نشرة نون بوست الأسبوعية

قد يعجبك ايضا

الـai في الحروب: كيف يحول “كلود” البيانات إلى خطط قتالية؟

الـai في الحروب: كيف يحول “كلود” البيانات إلى خطط قتالية؟

كارولين هاسكينز كارولين هاسكينز ٢١ مارس ,٢٠٢٦
خوارزميات الإبادة.. ماذا نعرف عن أنظمة القتل الإسرائيلية التي تعمل بالـ AI

خوارزميات الإبادة.. ماذا نعرف عن أنظمة القتل الإسرائيلية التي تعمل بالـ AI

نون إنسايت نون إنسايت ١٩ فبراير ,٢٠٢٦
البنتاغون يوظف منصة “كلود” للذكاء الاصطناعي في عملية اعتقال مادورو

البنتاغون يوظف منصة “كلود” للذكاء الاصطناعي في عملية اعتقال مادورو

أمريث رامكومار أمريث رامكومار ١٤ فبراير ,٢٠٢٦
dark

منصة إعلامية مستقلة، تأسست عام 2013، تنتمي لمدرسة الصحافة المتأنية، تنتج تقارير وتحليلات معمقة ومحتوى متعدد الوسائط لتقديم رؤية أعمق للأخبار، ويقوم عليها فريق شبابي متنوّع المشارب والخلفيات من دول عربية عدة.

  • سياسة
  • مجتمع
  • حقوق وحريات
  • آراء
  • تاريخ
  • رياضة
  • تعليم
  • تكنولوجيا
  • اقتصاد
  • صحافة
  • أدب وفن
  • ريادة أعمال
  • سياحة وسفر
  • سينما ودراما
  • طعام
  • صحة
  • ثقافة
  • أحدث التقارير
  • ملفات
  • مطولات
  • حوارات
  • بودكاست
  • تفاعلي
  • الموسوعة
  • بالصور
  • من نحن
  • كتّابنا
  • اكتب معنا
  • السياسة التحريرية
  • بحث متقدم
بعض الحقوق محفوظة تحت رخصة المشاع الإبداعي

تمت الإزالة من المفضلة

تراجع
Go to mobile version