fbpx
تقاريرسلايدر

كيف تكشف الأساليب الحديثة لحملات التضليل الممنهجة؟

نشرت صحيفة “ذا إيكونوميست البريطانية”، في يناير 2024، في الفترة التي سبقت انتخابات تايوان، ظهرت مئات مقاطع الفيديو على يوتيوب وانستجرام وإكس ومنصات اجتماعية أخرى بعنوان “التاريخ السري لتساي إنج ون” (رئيسة تايوان المنتهية ولايتها).

وقدّم فيها مذيعو الأخبار، بالإنجليزية والصينية، سلسلة من الادعاءات الكاذبة حول إنج ون وحزبها الحاكم.

وفي يوم الانتخابات نفسه، 13 يناير، انتشر مقطع صوتي للمرشح تيري جو، الذي انسحب من السباق الانتخابي في نوفمبر 2023، وكأنه يؤيد مرشح حزب الكومينت الصيني، المتحالف مع حكومة بكين.

استخدام الذكاء الاصطناعي

واتضح بعد ذلك ان مقاطع الفيديو والمقاطع الصوتية تلك تم إنشاؤها باستخدام الذكاء الاصطناعي  ونشرتها مجموعة دعاية صينية مدعومة من بكين تُعرف بأسماء مختلفة مثل “Spamouflage” و”Dragonbridge” و”Storm-1376″
وفي تقرير صدر يوم 5 إبريل الماضي، قال فريق استخبارات التهديدات في شركة مايكروسوفت، إن هذه هي المرة الأولى التي يُرى فيها دولة قومية تستخدم مواد تم إنشاؤها بواسطة الذكاء الاصطناعي، للتأثير على الانتخابات الأجنبية في دولة أخرى.

انشئت المقاطع باستخدام تطبيق  CapCut، وهو تطبيق صممته شركة “بايت دانس”، الشركة الصينية الأم صاحبة تطبيق تيك توك.

وفي ذروة انتشارها، تمت مشاركة مقاطع الفيديو 100 مرة في الدقيقة، ولكن تم التعرف عليها وإزالتها بسرعة.
وبشكل عام، لم تصل سوى لعدد قليل من الناس. لكن من المرجح أن تستخدم الصين تايوان بمثابة اختبار للأفكار التي تخطط لنشرها في أماكن أخرى، حسبما صرح مسؤول تايواني لصحيفة تايبيه تايمز المحلية.

حيث إن انتخابات تايوان هي علامة على ظواهر قادمة، حيث سيعمل الذكاء الاصطناعي على زيادة إنتاج المعلومات المضللة، في ظل امتلاء وسائل التواصل الاجتماعي بواحد من أعلى مستويات التضليل المُوجهه من حكومات أجنبية في العالم.

أصبحت التكنولوجيا الجديدة تسهل صناعة ونشر المعلومات المضللة أكثر من أي وقت مضى، أصبحت حاجة الحكومات والشركات والأفراد في جميع أنحاء العالم لمواجهة هذه المشكلة أكثر إلحاحًا.

ناقوس الخطر

خبراء الأمن يدقون ناقوس الخطر حيال هذه الظاهرة، أشار أكثر من 1400 خبيرًا في المنتدى الاقتصادي العالمي مؤخرًا أن المعلومات المضللة والمعلومات الخاطئة (المعلومات غير الصحيحة التي يتم مشاركتها عن غير قصد) ستكون أكبر المخاطر العالمية في العامين المقبلين، بل إنها أكثر خطورة من الحرب، وتقلبات الطقس المتطرفة والتضخم.

ضباب حرب المعلومات

لا يزال هناك الكثير من الغموض عندما يتعلق الأمر بمقدار المعلومات المضللة الموجودة وكيف تشكيل الآراء والسلوكيات.
ومع ذلك، بدأ الباحثون في فهم كيفية عمل شبكات المعلومات المضللة، ويعملون على تطوير طرق للتعرف عليها ومراقبتها على أرض الواقع.
نفذت بعض البلدان مثل تايوان والسويد والبرازيل سياسات لمكافحة المشكلة، وهو ما يمكن أن يوفر دروسًا مفيدة للدول الأخرى.

كيفية عمل حملات التضليل

في البداية سوف ننظر في دور الذكاء الاصطناعي “السلبي” (خلق المعلومات المضللة) و”الإيجابي” (الكشف عنها والتخفيف من أثرها).

وسوف يقوم بتقييم الأدوات والسياسات الناشئة التي تهدف إلى مكافحة هذه المشكلة.
طرق نشر المعلومات المضللة

يمكن أن تتخذ المعلومات المضللة والزائفة أشكالًا عديدة وتؤثر على العديد من المجالات، ولسنوات عديدة، كانت الطريقة المعتادة للنشر المعلومات المضللة كما يقول الصحفي أميل خان.

أولا: استخدام حسابات التواصل الاجتماعي

استخدام مئات أو آلاف حسابات وسائل التواصل الاجتماعي، التي يسيطر عليها برنامج واحد، لنشر نفس الرسالة أو الرابط أو الإعجاب بمنشورات أو إعادة مشاركة منشورات معينة على نطاق واسع.

يمكن لهذا “السلوك غير الزائف” أن يخدع خوارزميات التنظيم والاقتراحات على شبكة اجتماعية مثل فيسبوك أو إكس، ويجعلها تعتقد أن هناك موجة من الاهتمام أو الدعم لوجهة نظر معينة.

لتقوم الخوارزمية بعد ذلك بترويج هذه المنشورات لمستخدمين حقيقيين، والذين يمكنهم بعد ذلك مشاركتها مع متابعيهم.

مثال على ذلك

قامت شركة فالينت بروجيكتس، بتحليل هذه السلوك الذي استهدف شركة دايو الكورية الجنوبية الشهيرة لصناعة السيارات، فبعد أن فازت شركة دايو بعقد بناء بقيمة 2.6 مليار دولار من الحكومة العراقية، تعرضت لهجوم من قبل شبكات التضليل الصينية، التي نشرت قصصًا كاذبة عن الشركة في محاولة لإلغاء عقدها ومنحه لشركة صينية بدلًا من ذلك.
وقيل في تلك الحملات إن شركة دايو كانت واجهة لمخطط غربي لاستغلال موارد العراق، وتم الاستشهاد بالتعليقات المختلقة المنسوبة إلى مسؤولين أميركيين كدليل على أن أميركا كانت تحاول تقويض العلاقات الصينية العراقية.
وتم فضح مثل هذه الادعاءات من قبل هيئات التحقق من الحقائق الموثوقة في العراق وقطر، لكن ذلك لم يفعل الكثير لعرقلة انتشار المعلومات المضللة.

كشف عمليات التضليل

من السهل إلى حد ما اكتشاف عمليات السلوك الزائف المنسق، إذ إنَّ شركة ميتا تجد الآن مثل هذه الشبكات وتغلقها بسرعة كبيرة، كما يقول خان (على الرغم من أن إكس أبطأ في هذا الصدد، كما يضيف).

وفي أحدث تقرير لها حول عمليات ضبط وإغلاق تلك الحملات، والذي صدر في فبراير الماضي، تصف شركة ميتا ثلاث عمليات من هذا القبيل، في الصين وميانمار وأوكرانيا.

الشكل الجديد لحملات التضليل

منذ عام 2022، اتخذت حملات التضليل شكلًا جديدًا، والتي تديرها “كيانات يمكن إنكار ارتباطها بالحكومة”، مثل شركات التسويق أو مزارع المتصيدين دون روابط مباشرة مع الدولة، وتقوم بالنشر على مجموعة من الشبكات الاجتماعية ومنصات التدوين وإنشاء مواقع ويب مزيفة بالكامل.

ومنذ مايو 2023، ارتفع عدد المنافذ الإخبارية التي أنشأها الذكاء الاصطناعي والتي تنشر معلومات مضللة من 49 إلى 802، وفقًا لمنظمة نيوزجارد، وهي منظمة أمريكية تراقب المعلومات المضللة.

خلط المعلومات المضللة بين السطور

تتميز هذه المواقع في الغالب بمقالات غير ضارة كمقالات القوائم، أُنشئت بواسطة الذكاء الاصطناعي، ولكن مع خلط المعلومات المضللة بين السطور.

ومن الأمثلة على ذلك موقع “دي سي ويكلي”، وهو موقع أمريكي، كان له دور أساسي في تعزيز حملة التضليل التي تقودها روسيا، والتي تزعم أن أولينا زيلينسكا، السيدة الأولى في أوكرانيا، أنفقت 1.1 مليون دولار على جولة تسوق في نيويورك.

إذ بدأت تلك القصة، التي تتبعها باحثون في جامعة كليمسون، بمقطع فيديو على موقع يوتيوب، ومُرِّر عبر العديد من المواقع الإخبارية الأفريقية وموقع أُنشئ بواسطة الذكاء الاصطناعي قبل زرعها على وسائل التواصل الاجتماعي وتعزيزها من قبل وسائل الدعاية الروسية، لتتم مشاركتها 20 ألف مرة على إكس في نهاية المطاف.

ثانيا: مواقع “البذرة”

اطلق خان على الحسابات والمواقع التي تزرع القصة اسم “البذرة”، وبدلًا من استخدام المئات من الحسابات المزيفة للترويج لمواد هذه المواقع، يعتمد التوزيع بدلًا من ذلك على عدد قليل ممن يطلق عليهم “الناشرون”، وهي حسابات وسائل التواصل الاجتماعي التي تضم أعدادًا كبيرة من المتابعين، عادةً ما تقوم حسابات الموزعين ببناء متابعين من خلال النشر عن كرة القدم، أو إظهار نساء يرتدين ملابس ضيقة.

و يقول خان “وبعد ذلك سينقلبون”، فيبدؤون بخلط المعلومات المضللة من المصدرين، عن طريق الارتباط بمحتوى أو إعادة نشره.

وأشار تقرير التهديد الخاص بشركة ميتا، الصادر في نوفمبر 2023 إلى أنها شاهدت المجموعة الصينية “Spamouflage” تعمل على أكثر من 50 منصة، “وقامت بشكل أساسي بزرع المحتوى على منصات التدوين والمنتديات مثل ميديوم وريديت وكورا قبل مشاركة روابط هذا المحتوى على منصات ميتا”.

ثالثا: بناء حسابات تخلط المعلومات المضللة بين الحين والاخر


أما في البلدان الفقيرة، التي تقل فيها فرص العمل للشباب البارعين في التكنولوجيا، هناك صناعة منزلية تتمثل في بناء حسابات ناشرة، ثم بيعها إلى الجهات الفاعلة الخبيثة بمجرد وصولها إلى 100 ألف متابع، كما يقول خان.

يكمن التحدي في تحديد الناشرين في أن سلوكهم حقيقي، على الأقل في البداية، وأنهم ليسوا مولّدين للمعلومات المضللة، بل مجرد موزعين لها.

قد تستمر حسابات الناشرين في النشر حول أشياء أخرى، مع خلط المعلومات المضللة بين الحين والآخر، لتجنب اكتشافها.

وقد شهدت شركة فالينت بروجكتس استخدام هذا النهج الأكثر تعقيدًا لنشر معلومات مضللة في عدة دول.

مثال على ذلك استخدمت الحسابات الناشرة منشورات “نميمية” عن العائلة المالكة البريطانية لجذب المتابعين، قبل أن تنتقل إلى الدعاية السياسية حول كيف أن “الأحياء ذات حركة المرور المنخفضة” (المناطق التي لا يتم فيها تشجيع حركة المرور عبرها) هي مؤامرة عالمية.

وبالمثل، قامت مايكروسوفت بكشف تسخير مجموعة “Storm-1376” الصينية لهذا النموذج من النشر لترويج معلومات مضللة حول كون حرائق الغابات في هاواي بدأت بواسطة “سلاح الطقس” الأمريكي، ولتضخيم الانتقادات الموجهة للحكومة اليابانية في كوريا الجنوبية، ولإثارة نظريات المؤامرة حول خروج قطار عن مساره في كنتاكي في نوفمبر 2023.

كيف يمكن كشف سلوك حملات التضليل؟

– استخادم العديد من الحسابات صياغة متطابقة لنقل الأخبار والمعلومات، ويكون اكتشاف هذه الحملات أمرًا بسيطًا نسبيًا، ليس من الصعب أن تصبح روايات معينة “تريند” فجأة على وسائل التواصل الاجتماعي، ولكن الارتفاع الكبير في الإشارات إلى موضوع معين في مجموعة من اللغات المختلفة، أو نشرها من خلال حسابات تبدو منتشرة في جميع أنحاء العالم، قد يكون إشارة إلى وجود خدعة ما.
– مجموعات من الحسابات لها نفس تاريخ الإنشاء.
قد نجد جميع الحسابات المراوغة لها نفس تاريخ الإنشاء، أو نفس عدد المتابعين، أو نفس نسبة المتابعين إلى المتابعة (لأنهم اشتروا متابعين مزيفين بكميات كبيرة في محاولة لتبدو أصلية).

اكتشاف حسابات ” البذرة”

اكتشاف حسابات “البذرة” أو حسابات التوزيع في ظل نموذج النشر الأحدث يعد أكثر صعوبة.

إذ تنشر تلك الحسابات رواية معينة، لكن المقالات والمشاركات المنشورة والمشاركات الموزعة التي تروج لها، تستخدم جميعها صياغات مختلفة.

تحاول شركة فالينت حل هذه المشكلة باستخدام الذكاء الاصطناعي:

حيث يستقبل نظامها، المسمى آريادني، خلاصات من المنصات الاجتماعية ويبحث عن الروايات والمشاعر الأساسية المشتركة لاكتشاف السلوكيات المنسّقة غير العادية.
وعلى عكس الأساليب السابقة القائمة على الكلمات الرئيسية، يقول خان: “أحدث النماذج تتيح لنا التعامل مع رصد وتحليل المشاعر بشكلٍ لم يكن ممكنًا من قبل”.

طرق أخرى

هناك طريقة أخرى لتحديد حسابات الناشرين تم وصفها في ورقة عمل حديثة من مركز بروكينجز الأمريكي للأبحاث.
قامت الباحثة مريم سعيدي، الخبيرة الاقتصادية في جامعة كارنيجي ميلون، وزملاؤها بتحليل 62 مليون تغريدة من موقع إكس مكتوبة باللغة الفارسية، تتعلق بموجة الاحتجاجات المناهضة للحكومة في إيران، والتي بدأت في سبتمبر 2022. وركز التحليل على حسابات الموزعين (التي يسميها الباحثون بـ “الدجالين”) التي بدأت بالتظاهر بأنها تقف إلى جانب المتظاهرين، لكنها انقلبت بعد ذلك إلى نشر معلومات مضللة تشوه سمعة الاحتجاجات.

تحليل الشبكة بدل من تحليل المحتوى

بدأ الباحثون بالتعرف على مئات من الحسابات “الدجالة” يدويًا، ثم قاموا بتدريب خوارزمية تصنيف لتحديد المزيد من المحتالين ذوي الخصائص المماثلة، بما في ذلك نشاط النشر الخاص بهم، ونمط متابعيهم، واستخدامهم لعلامات تصنيف معينة، ومدى حداثة إنشاء الحساب، وما إلى ذلك.
تمكن الباحثون بعد ذلك من تكرار تحديد هذه الحسابات الدجالة، بدقة بلغت 94%، من خلال تحليل الشبكة وحده، أي من خلال فحص علاقتها بالحسابات الأخرى فقط، بدلًا من محتوى منشوراتها.

حسابات ذات ميل للانخراط في التضليل

ويشير هذا، إلى أنه من الممكن تحديد “الحسابات ذات الميل الكبير للانخراط في حملات التضليل، حتى قبل أن تفعل ذلك”.
ويقترحون أن منصات وسائل التواصل الاجتماعي يمكن أن تستخدم هذا النوع من أساليب تحليل الشبكة لحساب “درجة الدعاية” لكل حساب، وجعلها مرئية للمستخدمين، للإشارة إلى ما إذا كان من المحتمل أن يكون مصدرًا للتضليل. يقترح الباحثون أنه يمكن تحسين خوارزمية الكشف عن المحتالين، باستخدام أشكال أكثر تقدمًا من الذكاء الاصطناعي، مثل معالجة اللغة الطبيعية والتعلم العميق.

انظمة النزاهة

لا شك أن شركات التكنولوجيا ووكالات الاستخبارات تقوم بالفعل بهذا النوع من التحليل، على الرغم من أنها مترددة في مشاركة التفاصيل حول أساليبها.

وتقول ميتا فقط إنها استخدمت الذكاء الاصطناعي في “أنظمة النزاهة” الخاصة بها لسنوات عديدة لحماية المستخدمين وإنفاذ قواعدها.

لكن الأكاديميين ومنظمات الحقوق الرقمية المدنية يقولون إنه لا يمكن استخدام طريقة واحدة للكشف تلقائيًا عن كل المعلومات المضللة، فالتكتيكات المستخدمة غالبًا ما تكون مخصصة لحملات محددة وتعتمد على محللين بشريين للتحقق من النتائج وتقديم التفاسير والفروق الدقيقة.

التحقق من المعلومات جهد تعاوني وليس فردي

ومع ذلك، يمكن للذكاء الاصطناعي المساعدة بطريقة مختلفة، من خلال اكتشاف المحتوى المخادع مباشرة، من خلال تحليل المنشورات الفردية أو المقالات أو المقاطع الصوتية أو مقاطع الفيديو.

وكانت داربا، الذراع البحثية للمشاريع الخاصة التابعة لوزارة الدفاع الأمريكية، تقوم بتمويل الأبحاث في مجال “اكتشاف وإسناد وتوصيف الوسائط  المركّبة والتي تم التلاعب بها” كجزء من برنامج “الطب الشرعي الدلالي”، لإنشاء مجموعة أدوات لتطوير الدفاعات.

وفي شهر مارس الماضي، نشرت قاعدةً مفتوحة المصدر بالعديد من المشاريع التي مولتها، مع روابط كود مصدر قابل للتنزيل، وأعلنت عن سلسلة من تحديات “اكتشاف التزييف العميق”، إذ يهدف البرنامج إلى تشجيع المستخدمين الأكاديميين والتجاريين على دمج هذه الأدوات وتحسينها ونشرها في نهاية المطاف، والتي تعتمد جميعها على الذكاء الاصطناعي بشكل ما، كما يقول ويل كورفي من داربا، الذي يدير البرنامج.

ويقول إنه على الرغم من أن أداة تحليلية واحدة لا تكون موثوقة دائمًا، إلا أن الجمع بين العديد منها يمكن أن يحسن الدقة بشكل كبير.

على سبيل المثال، مشكلة تحديد ما إذا كان مقطع الفيديو الخاص بأحد السياسيين حقيقيًا أم لا، باستخدام البيانات الحقيقية للشخص المعني، من الممكن تدريب نموذج الذكاء الاصطناعي الذي يتعلم خصائصه، مثل أنماط إمالة الرأس أو حركات الوجه أثناء التحدث، ويمكن بعد ذلك استخدام هذا لتحليل التزييف العميق المشتبه به للتأكد من صحته.
والأفضل من ذلك، كما يوضح الدكتور كورفي، أنه يمكن دمجها مع تقنيات أخرى، مثل اكتشاف نبضات القلب من الفيديو (يمكن رصد نبضات القلب من خلال البحث عن الاختلافات الصغيرة في لون البشرة، خاصة على الجبهة)، وهو أمر يصعب تزييفه.

إن جهود داربا ليست الجهد الوحيد من هذا النوع، إذ قام أورين إيتزيوني، عالم الكمبيوتر والرئيس السابق لمعهد ألين للذكاء الاصطناعي بتأسيس مجموعة TrueMedia.org غير الربحية، في يناير الماضي لتوسيع الوصول إلى أدوات الكشف.
وفي 2 إبريل، كشفت المجموعة عن موقع على شبكة الإنترنت يجمع بين الأدوات مفتوحة المصدر والأدوات المتاحة تجاريًا، من خلال واجهة ويب مجانية، لتوفير متجر شامل للكشف عن الصور والفيديو والصوت الاصطناعية أو التي تم التلاعب بها باستخدام أدوات متعددة في وقت واحد.

المحتوى السيئ

عندما يتعلق الأمر بالمحتوى السيئ، فإن الذكاء الاصطناعي هو سيف ودرع في نفس الوقت، كما يشير نيك كليج، رئيس الشؤون العالمية في ميتا.

يقول الدكتور كورفي إنه متفائل بأن أدوات الكشف الدفاعية التي تعمل بالذكاء الاصطناعي يمكن أن تظل متقدمة على أدوات التوليد باستخدام الذكاء الاصطناعي، وإن هذه “لحظة حظ”، إذ تستطيع شركات التكنولوجيا اكتشاف مقاطع الفيديو المزيفة بشكل موثوق للغاية “على الرغم من أنني لا أعرف أن هذا سيستمر إلى الأبد”.

برغم كل هذا حتى لو كان من الممكن اكتشاف الوسائط المخادعة بدقة تامة، فلن يصدق الجميع أن مقطع الفيديو المزيف مزيف.

مثال على ذلك.. المقاطع الصوتية المزيفة التي انتشرت قبل الانتخابات في سلوفاكيا في سبتمبر 2023، والتي يبدو أنها سُمع فيها سياسي وهو يناقش تزوير الانتخابات مع أحد الصحفيين، وخسر الانتخابات فيما بعد.

يقاوم الناس بشدة عمليات التحقق من المعلومات إذا لم يعجبهم مدقق المعلومات الذي يقوم بعملية التحقق”.
في النهاية.. التخفيف من حدة انتشار المعلومات المضللة سيتطلب ما هو أكثر من مجرد التكنولوجيا بكثير.

مقالات ذات صلة

زر الذهاب إلى الأعلى