فوجئ مُحبو بيتر جريفين، الشخصية الخيالية الرئيسة في مُسلسل الرسوم المُتحركة العالمي، “فاميلي جاي Family Guy”، مطلع العام الجاري (2024)، بمشاهد مُنتشرة على نطاق واسع من مُسلسلهم المُفضل مصحوبة بكلمات غير مألوفة، تُحرض على القتل وإراقة الدماء، تحمل اسم “أبو جريفين – في سبيل الله”.
تعود المشاهد المتداولة من المُسلسل على المنصات الاجتماعية، إلى حلقة “Turban Cowboy” ذاتها، التي تم بثها عام 2013، ولكن مع تغيير الصوت المُصاحب للفيديو، ليحمل الغناء كلمات دعائية حماسية لتنظيم “داعش”، كان نصها “أسلحتنا ثقيلة، وقواتنا كبيرة، وجيش الله على أتم الاستعداد”.
أثارت اللقطات السابقة وغيرها من الوقائع المُشابهة خلال العام، تساؤلات عدة حول كيفية توظيف الجماعات المُتطرفة للحوسبة المتقدمة وتقنيات “التزييف العميق”، ونماذج الذكاء الاصطناعي التوليدي (Gen- Ai) لإنشاء المحتوى التحريضي والدعائي، وبثه على منصات التواصل وشبكة الإنترنت، وتمريره دون قيود.
والذكاء الاصطناعي التوليدي (Gen- Ai) Generative artificial intelligence، هو مجال فرعي من الذكاء الاصطناعي، يقوم على استخدام تقنيات التعلم الآلي والتعلم العميق، – التعلم الآلي (Machine Learning) هو تقنية تسمح لأجهزة الكمبيوتر بأداء مهام مُحددة بذكاء، من خلال التعلم من الأمثلة والبيانات المُتاحة، والتعلم العميق (Deep Learning) هو مجال فرعي من تعلم الآلة، تستخدم هياكل خوارزمية محددة تُسمى الشبكات العصبية، مصممة على غرار الدماغ البشري–، وذلك لتوليد محتوى يُشبه ما يُنتجه الإنسان إلى حد ما؛ مثل النصوص والصور والصوت والفيديو والنماذج ثلاثية الأبعاد، استجابةً لمُطالبات مُختلفة، وتعليمات مُحددة يتم تقديمها لنظام الذكاء الاصطناعي لتنفيذ هذه المُهمة.
لم تمر سوى أيام قليلة على فيديو “بيترجريفين”، حتى انتشر فيديو رسوم متحركة آخر لشخصية كرتونية، لا تقل أهمية وشهرة، وهو ريكسانشيز، أحد بطلي مسلسل الرسوم المُتحركة التليفزيوني (ريك ومورتي)، ظهر يُردد بصوته المألوف للصغار والكبار، نشيد “داعش” الحماسي، “دولتي باقية للعدا رامية، جندها يهتفون إنها باقية”، بينما كان يرتدي حزامًا ناسفًا على هيئة عبوات بلاستيكية.
انتشرت خلال الأشهر الأخيرة مقاطع فيديو على منصة “يوتيوب”، تُظهر توظيف عناصر “داعش” لمسلسل الرسوم الأمريكية المُتحرك سبونج بوب سكوير بانتس؛ في الترويج لعملياته وأيديولوجيته، عبر دمج لقطات من السلسلة بالأناشيد الترويجية للتنظيم مع سلسلة من الانفجارات.
تعود بدايات توظيف تنظيم “داعش” للرسوم المُتحركة في استراتيجيته الدعائية إلى عام 2017، تزامنًا مع سلسلة هزائم متتالية مُني بها في العراق، والتي انتهت بتحرير الموصل، عاصمة خلافته المزعومة، وطرده منها في يوليو من العام ذاته.
شهد مطلع العام 2017، إصدار التنظيم لسلسة رسوم مُتحركة موجهة إلى الأطفال، على إحدى قنواته على موقع “تليجرام”، تحت اسم “الحاكم والشُجاع“، تحكي قصة دولة فقدت الأمل في زعيمها “الفاسد الطاغية” لكثرة كذبه على “الرجال الشجعان”؛ في إشارة إلى عناصر التنظيم الذين اتحدوا للوقوف في وجهه والانتصار عليه. ومع بداية مارس من العام ذاته، بث التنظيم السلسلة على منصة “يوتيوب”، لكن سرعان ما لاحقها الأخير بالحذف بعد بلاغات قدمتها هيئة الإذاعة البريطانية.
تزامن ذلك مع التوسع في إصدار سلسلة “يوميات معاوية وسالم” التسجيلية، التي يقدمها طفلان، وتروج لأيديولوجية التنظيم ومعتقداته في قضايا حياتية ومُجتمعية مختلفة، كقضية “الولاء والبراء”، وأحكام العيد والاحتفالات به، والتعاملات والصوم و”الجهاد” وغيرها.
الرابط المُشترك بين جميع الإصدارات السابقة يتمثل في ابتعادها عن السرديات الوحشية والصادمة، التي طالما روج لها تنظيم “داعش”، لتتخذ أسلوبًا أكثر ليونة ومُهادنة يتماشى مع عقلية الفئة المستهدفة بهذا الوسيط المرئي، وفي مقدمتهم الأطفال.
ووفق تقرير لـ “بي بي سي“؛ فإن الرسوم الكاريكاتورية أقل احتمالًا للتتبع والحذف مقارنة بالصور العنيفة، وقد عزى انتشارها بداية مطلع العام المشار إليه (2017) إلى انخفاض مقاطع الفيديو والصور التي يتم إنتاجها داخل المناطق التي سيطرت عليها قوات “داعش”، مع تدهور قدرتهم على إنتاج المحتوى الإعلامي بسبب انتكاساتهم العسكرية، بجانب الحاجة لتجنيد عناصر جُدد مُشبعين بأفكار التنظيم؛ ما دفعهم للاعتماد على مؤيدين ومناصرين في الخارج لصنع محتواهم.
والذكاء الاصطناعي التوليدي (Gen- Ai) هو مجال فرعي من الذكاء الاصطناعي، يقوم على استخدام تقنيات التعلم الآلي والتعلم العميق لتوليد محتوى يُشبه ما يُنتجه الإنسان إلى حد ما؛ مثل النصوص والصور والصوت والفيديو والنماذج ثلاثية الأبعاد، استجابةً لمُطالبات مُختلفة، وتعليمات مُحددة يتم تقديمها لنظام الذكاء الاصطناعي لتنفيذ هذه المُهمة.
يتفق دانيال سيجل، الباحث الأمريكي في مجال مكافحة الإرهاب ببرنامج الدعاية الرقمية في جامعة نورث كارولينا، مع الرأي السابق، ولكن من منظور “الدعاية المولدة اصطناعيًا”؛ حيث يشير في تحليل له هذا العام 2024، إلى أن تضمين السرديات المُتطرفة داخل المحتوى الذي يُحاكي نبرة وأسلوب “الترفيه الشعبي” ذائع الصيت، تجعله يتخطى التدقيق المُعتاد المطبق على الرسائل المُتطرفة، ويُسهل من قبول الأيديولوجية ووصولها إلى جمهور أوسع.
ويضرب سيجل، مثالًا رئيسًا بنموذجي “بيتر جريفين، وريك سانشيز”؛ حيث وصفه بأنه أسلوب “ماكر”، يمثل تطورًا كبيرًا في التكتيكات التي يستخدمها المتطرفون لتوسيع نطاق محتواهم، لأنه يستفيد من ثقة المشاهدين ومحبتهم لهذه الشخصيات المألوفة، ويوجههم بمهارة إلى التفاعل مع منشئي هذا المحتوى، وربما متابعتهم بناءً على اهتمامهم بالشخصيات، وليس بالضرورة التعرف على النغمات المتطرفة.
يشير الباحث الأمريكي، إلى أن توظيف الذكاء الاصطناعي التوليدي (Gen- Ai) لإنشاء هذا المحتوى “غير المؤذي بصريًا”، إلى جانب تنفيذه الجذاب والفكاهي، يزيد من إمكانية متابعة الجمهور الأصغر سنًا لمنشئ المحتوى، وبالتالي احتمالية تعرضهم لمحتوى أكثر تطرفًا، وإعطاء فرصة للفيروسات المتأصلة في هذه التزييفات العميقة التي تستخدم الذكاء الاصطناعي، للانتشار السريع عبر منصات التواصل الاجتماعي.
اتجاه متزايد
أثار تنامي نماذج اللغة الكبيرة (LLMs) القائمة على التعلم العميق مثل “شات جي بي تي” منذ ظهوره أواخر عام 2022؛ فضول الجماعات المُتطرفة التي سعت للاستفادة منها في توليد ونشر المحتوى الإرهابي، وقد عزز ظهور (GPT-4) عام 2023، كنسخة أكثر تطورًا في إطار الذكاء الاصطناعي التوليدي الكبير مُتعدد الوسائط (LGAIMs)، من فرص تنظيمات مثل “داعش” و”القاعدة” في توليد وترويج مجموعة متنوعة من تنسيقات الوسائط المختلفة، كالصور والفيديوهات والرسوم المتحركة والنماذج الثلاثية، واعتمادها في استراتيجيات التجنيد ال”داعش”ية القاعدية، وفق ما تشير إليه مُبادرة “التكنولوجيا ضد الإرهاب” الأُممية.
في مطلع فبراير العام 2024، أعلنت مجموعة إعلامية داعمة لتنظيم “القاعدة”، عن عقد ورشة عمل حول إمكانات الذكاء الاصطناعي عبر الإنترنت. وبعدها بأيام قليلة في (10 من فبراير)، نشرت المجموعة ذاتها التي تُسمى بـ “مجلس التعاون الإعلامي الإسلامي” (جيش الملاحم الإلكتروني)، كتابًا إلكترونيًا من 50 صفحة بعنوان “طرق مذهلة لاستخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي”.
وقد حملت صفحاته تعريفًا بالتقنية وآليات الدخول عليها والاستفادة منها، وجاء بالصفحة الأولى من الكتاب تعريفًا لـ (ChatGPT)، وفي نهايتها ذُيلت بعبارة “لذلك، دعونا نرى ما يمكنك القيام بهذه الأداة؛ أليس كذلك؟”.
منذ تأسيسها، دأبت المجموعة الإعلامية السابقة على نشر ترجمات عربية للعديد من الأدلة التقنية من الإنترنت، حول موضوعات تشمل خدمات الشبكة الخاصة الافتراضية (VPN)، وتطبيقات المراسلة، وبرامج مكافحة الفيروسات، وطرق التخفي والأمن السيبراني.
لم تكن “القاعدة” وحدها من تهتم بهذه الاتجاهات الجديدة؛ ففي 15 من أغسطس 2023، شاركت مجموعة الدعم التقني المؤدية لتنظيم “داعش” (Pro-IS)، دليلًا باللغة العربية بعنوان “كيف تحمي خصوصيتك عند استخدام مولد محتوى الذكاء الاصطناعي”.
قدم الدليل نصائح لعناصر “داعش” والمؤيدين للتنظيم، تتعلق بكيفية حماية بياناتهم والحفاظ على خصوصيتهم أثناء استخدام مولدات المحتوى بالذكاء الاصطناعي التوليدي؛ حيث شملت كيفية تعطيل سجل الدردشة، وحذف محادثات الدردشة، وتجنب تقديم “معلومات حساسة” أثناء التعامل مع روبوت الدردشة الآلي، وأوصت أيضًا باستخدام “تقنيات إخفاء هوية البيانات”.
في هذا السياق، يصف كريستوف زغبي، خبير تكنولوجيا المعلومات والذكاء الاصطناعي؛ في حديث خاص لـ “مواطن”، “بوتات الدردشة” بأنها واحدة من أكثر الوسائل فعالية للوصول إلى فئة واسعة من الأفراد دون تدخل بشري مُباشر.
ويلفت زغبي، إلى قدرتها على تزويد المستخدمين بمعلومات موجهة وإجابات على تساؤلاتهم، مما قد يشجع على التطرف تدريجيًا، وذلك نظرًا لخطورتها العالية في “تخصيص” المحتوى بما يُناسب احتياجات أو اهتمامات كل مُستخدم، مما يزيد من احتمالية تقبله لأفكار متطرفة بسهولة.
تُظهر لعبة "صليل الصوارم"، التي صممها عناصر تنظيم "داعش"، تمكنهم بالفعل من توظيف البيئة الغامرة، لتدريب المراهقين والأطفال على استخدام الأسلحة، مستعينين بمؤثرات صوتية دينية تحث على "الجهاد"
تتفق الدكتورة سالي حمود، أستاذة الذكاء الاصطناعي والاتصال بالجامعة الأمريكية في بيروت، مع خطورة خاصية تخصيص المحتوى؛ حيث تشير في حديثها مع “مواطن”، إلى أن تركيز “بوتات الدردشة – chat bot” بشكل مباشر على النصوص، يعطيها أفضلية في التأثير، نظرًا لمحاكاتها الأشخاص طبقًا لاهتماماتهم وتطلعاتهم عبر خاصية التخصيص (hyper personalization)، التي تستهدفهم بشكل أكثر دقة للتعرف على كلماتهم ولغاتهم وميولهم، بعد التنقيب في بياناتهم واستخدام خوارزميات توفر فرص التصيد الفعال.
توضح خبيرة الذكاء الاصطناعي، أن تطور برمجة اللغة الطبيعية “NLP” القادرة على تحويل النصوص الطبيعية إلى لغة يفهمها الحاسوب، ساعد في فهم اهتماماتهم بجانب القدرة على تحليل مشاعر وعواطف وأحاسيس الأشخاص المستهدفين عبر خاصية تحليل المشاعر (Sentiment Analysis)، وتقييم رد فعلهم على الرسالة الموجهة إليهم.
دفع هذا التبني المُبكر والمتسارع لتكنولوجيا الذكاء الاصطناعي، ستيفن ستالينسكي، المدير التنفيذي لمعهد أبحاث الإعلام في الشرق الأوسط (ميمري)، للقول بأنه لن يكون متفاجئًا إذا أنشأ “داعش” قسمًا إعلامية خاصًا بالذكاء الاصطناعي.
ولفت ستالينسكي إلى أن منصات الإعلام المؤيدة لـ “داعش”، قد بحثت بالفعل عن أشخاص يتمتعون بمهارات الذكاء الاصطناعي؛ حيث تُظهر رسالة حصل عليها معهد “ميمري” في 23 من أبريل 2023، أحد الأشخاص يطلب خبراء في تصميم الملصقات وكتابة المقالات وتحرير مقاطع الفيديو، ويتقنون أدوات التحرير والذكاء الاصطناعي؛ حيث جاء في الرسالة: “يا مجاهدي الإعلام، ننتظر هجومكم”.
بجانب هذا؛ فقد ألقت وزارة الداخلية الإسبانية؛ في يونيو الماضي 2024، القبض على تسعة أشخاص في جميع أنحاء البلاد ينشرون دعاية مروجة لتنظيم “داعش”، تعتمد على “محتوى الوسائط المُتعددة، باستخدام تطبيقات التحرير والنشر المُتخصصة المدعومة بالذكاء الاصطناعي والاصطناعي التوليدي”.
التطرف في البيئات الغامرة
وفي ظل تصاعد حجم سوق التكنولوجيا الافتراضية والمُعززة بشكل كبير دوليًا، مع توقعات بوصول هذا التصاعد لمستويات غير مسبوقة في القريب العاجل، وحرص شركات تكنولوجية كـ “آبل” لضخ ملايين الدولارات في هذا المجال، برز خطر جديد يتعلق بالتوجه نحو توظيفها لخدمة التطرف والإرهاب في الوقت نفسه، تزامنًا مع دمج تقنيات الذكاء الاصطناعي بها.
ووفق تقرير حديث أعده خبراء المركز الدولي لمكافحة الإرهاب (ICCT)، هذا العام 2024؛ فإن هذا التوجه بمثابة “تحول لا مركزي” تديره الجماعات الإرهابية عبر مُحاكاة الحقائق التي تعكس أيديولوجياتهم المُفضلة بسهولة، من عالم تحكمه قوى المحور إلى الخلافة العالمية الرقمية.
يُسلط التقرير الضوء، على ما أسماه بـ “غمر المُتدربين” في هذه البيئة التي يسكنها أفراد مدعومون بالكامل بالذكاء الاصطناعي، ومدربون على بيانات أيديولوجية متطرفة، من شأنه تحويل أعضاء هذه البيئة المُستقطبين إلى التطرف، تزامنًا مع وجود عناصر الإبهار التكنولوجي ثلاثية الأبعاد التي يُمكنها التلاعب بمُختلف الحواس.
ووفقًا لتقرير آخر صادر عن مكتب الأمم المُتحدة لمكافحة الإرهاب (UNCCT)؛ فإن المتطرفين المنتمين لتنظيمات مثل “داعش”، وكذلك “اليمين المُتطرف”، يُنشئون نماذج مُحاكاة في بيئات الألعاب مثل (The Sims) و(Minecraft)، تسمح للاعب بتجربة مذبحة كرايستشيرش الإرهابية التي نُفذت في نيوزيلندا عام 2019، وأدت لمقتل وإصابة 170 مُسلمًا. وفي الوقت نفسه، قد أنشأوا مجتمعات عرقية مُتطرفة في لعبة (Roblox).
ومن خلال إجراء تغييرات على الجغرافيا والشخصيات وجماليات الألعاب الشعبية مثل (Super Mario)، و(Doom)، يمكن لهذه المجموعات المتطرفة تصدير أيديولوجياتها وتعزيز هوية مُتطرفة للاعب عبر الصور الرمزية العنيفة في هذه المنتجات المألوفة.
الأمر اللافت هُنا، أن التقنيات الجديدة تُمكن لاعبي ألعاب الفيديو من تطوير قصصهم وشخصياتهم وبيئاتهم المرغوبة من خلال إدخال نص يمكن تحويله إلى منتج لعبة فيديو متطور بالكامل؛ حيث تُتيح نماذج الذكاء الاصطناعي التوليدية، تحويل هذه الألعاب إلى مصدر قوة كبيرة للدعاية المُتطرفة.
هذا في الوقت الذي تتعالى فيه الأصوات المُحذرة، من إساءة استخدام نماذج الذكاء الاصطناعي التوليدية الحالية؛ مثل (شات جي بي تي) في نقل الروايات المُتطرفة العنيفة إلى قصص ألعاب الفيديو الكاملة، وتعديل شفرات البرمجة لها على غرار لعبة نداء الواجب (Call of Duty) لتكون مُخصصة إلى جمهور مُستهدف. وذلك بدعم من نماذج مثل (Scenario) و(MidJourneyAI) المستخدمة، بالاشتراك مع “شات جي بي تي” لإنشاء عناصر ثلاثية الأبعاد يمكن إدماجها داخل ألعاب الفيديو؛ ما يوفر بيئة دردشة متطورة وآمنة؛ خاصة مع اللاعبين، لتسريع تجنيدهم.
تشير الدكتورة سالي حمود، لـ “مواطن”، إلى وجود حالات فعلية اتضح فيها توظيف التنظيمات الإرهابية لبيئات الألعاب الافتراضية والمعززة، لافتةً إلى أنه يجري جمع البيانات حول الأشخاص؛ لا سيما من منصات التواصل الاجتماعي للتعرف على اتجاهاتهم، وتوظيفها مرات عديدة عبر خاصية “إعادة الاستهداف السلوكي Behavioral retargeting”، لتوليد نصوص وصور وفيديوهات تُلائم الواقع المُعزز والافتراضي، وتصميم “شات بوت” جديد أكثر ملاءمة موجه للأشخاص.
تُظهر لعبة “صليل الصوارم“، التي صممها عناصر تنظيم “داعش”، تمكنهم بالفعل من توظيف البيئة الغامرة، لتدريب المراهقين والأطفال على استخدام الأسلحة، مستعينين بمؤثرات صوتية دينية تحث على “الجهاد”. هذا فضلًا عن توظيف “الدردشة الآمنة”، وتدشين مجموعات تواصل خاصة ببعض الألعاب بحجة احتراف اللعبة، يكون هدفها الأساسي استقطاب الشباب وتشجيعهم على تنفيذ عمليات.
تفضي هذه الألعاب إلى غمر اللاعبين في واقع وهمي مُغاير للذي يعيشونه؛ ما يسهم في تشكيل هوياتهم وأفكارهم. في هذا السياق، تشير تحقيقات هجمات باريس الإرهابية عام 2015، والتي راح ضحيتها 432 مدنيًا ما بين قتيل وجريح، ونفذها تنظيم “داعش”، إلى أن عناصر التنظيم قد خططوا ونسقوا لتلك الهجمات عن طريق تواصلهم عبر منصات للألعاب الإلكترونية في ذلك الوقت.
يُرجع كريستوف زغبي، لـ “مواطن”، تحوّل التركيز نحو البيئات الغامرة على أنه نابع من قدرتها على توفير تجربة تفاعلية وشخصية تجذب انتباه المستخدمين لفترات طويلة؛ خاصةً الشباب.
هذه البيئات تسمح للمستخدمين بتجربة “حياة ثانية” وأدوار مختلفة؛ ما يجعل من السهل التأثير على القيم والمعتقدات عن طريق إدماج الأفكار المتطرفة في السياق الترفيهي. كذلك تلعب الألعاب دورًا أساسيًا في تعزيز الانتماء للجماعات الافتراضية؛ ما يزيد من خطر استدراج الشباب إلى شبكات التطرف، وفق الخبير التكنولوجي.
مولدات الصور والفيديو
قدم تنظيما “داعش” و”القاعدة”، إثباتات فعلية على استخدامهما لتقنيات الذكاء الاصطناعي التوليدي ((Gen-Ai خلال هذا العام (2024)، بعد سلسلة دعوات أطلقاها العام الماضي (2023) إلى أتباعهما، تتعلق بضرورة استخدام الأدوات الرقمية الجديدة والاستفادة منها.
وقد أحدث الذكاء الاصطناعي التوليدي ثورة في هذا المجال؛ فلم يعد هُناك حاجة إلى الجلوس ساعات على برامج “فوتوشوب” لتزييف صورة أو تشكيل أخرى؛ حيث يمكن الحصول على صور بمواصفات خاصة مطلوبة بمجرد إدخال بعض التفاصيل النصية المطلوبة.
الأمر الذي دفع ريتا كيدز، مُديرة مجموعة “سايت للاستخبارات” الأمريكية المُتخصصة في رصد وتحليل النشاط الإرهابي، وصف التقنية الجديدة بـ “أحد عجائب التكنولوجيا”، مشيرةً إلى أنه بمجرد تخيل صورة ما، تقوم التقنيات الحديثة بتصميمها على الفور، وهو الشيء الذي فعله مؤيدون لتنظيم “القاعدة” في الاحتفال بذكرى هجمات 11 سبتمبر، حين تخيلوا انفجارًا نوويًا وتدميرًا هائلًا لبرجي التجارة العالمي.
المثال الأكثر إثارة للجدل، قدمه تنظيم “داعش” في مارس من العام (2024)، بعد أربعة أيام فقط من الهجوم الذي شنته عناصره على قاعة موسيقية في موسكو في 22 من مارس، وأسفر عن مقتل نحو 145 شخصًا، وتبنته ما يُعرف بـ “ولاية خراسان”، وعُرف باسم “عملية كروكوس سيتي”، حين خرج ليُعلن تفاصيل الهجوم عبر “روبوت ذكي مُولد يرتدي زيًا عسكريًا”، كاشفًا للمرة الأولى عن استخدامه الذكاء الاصطناعي التوليدي في مجال البث الإخباري الجهادي، عبر تقديم نشرة حصاد “عملياته”.
وفي نهاية الشهر ذاته (مارس 2024)، نشر التنظيم في إحدى قنواته على “تليجرام”، عبر نشرة الحصاد؛ فيديو جديدًا يُظهر روبوت ذكيًا آخر يرتدي زيًا تقليديًا، مولدًا بالذكاء الاصطناعي التوليدي، يقرأ أخبار عن عمليات التنظيم وهجماته في مالي؛ فيما تُعرف بـ “ولاية الساحل”، وهو ما قد يشير إلى مساعي تعميم هذا الأمر.
لم يمر سوى عدة أسابيع، حتى نشر التنظيم ذاته في خراسان (ISKP)، نشرة إخبارية أخرى لمذيع أخبار مولد بالذكاء الاصطناعي التوليدي؛ في 17 من مايو 2024، باللغة البشتونية، تشبه ملامحه السكان المحليين في مدينة باميان؛ في أعقاب هجوم نفذه التنظيم هُناك، وأسفر عن مقتل أربعة أشخص بينهم 3 سياح إسبان.
منذ المرة الأولى في مارس حتى مطلع مايو 2024، نشر التنظيم خمسة مقاطع فيديو دعائية مختلفة تستخدم نفس تقنيات الإنتاج، وإن كان مع بعض الاختلافات في الرسوم والمحتوى، لكن يظل هذا المثال، هو الأكثر بروزًا لـ “داعش” ومؤيديه في استخدام الـ ((Gen-Ai في دعايته المُتطرفة.
وقد صاحب هذه الفيديوهات حالة من الجدل حتى بين أعضاء التنظيم أنفسهم على منصة ( (RocketChat- إحدى الملاذات الرقمية الآمنة الرئيسة لـ “داعش” منذ عام 2019- بعدما انقسموا حول مدى “حُرمة” فيديوهات الذكاء الاصطناعي التوليدي، ومُخالفتها للدين وإظهارها لأشخاص بـ “وجوه مُستنسخة”، ولعل ذلك يُفسر نشر التنظيم فيديوهات أخرى تالية مولدة بالذكاء الاصطناعي تشمل إخفاء لوجه المُتحدث كما توضح الصورة السابقة.
وعلى الرغم من عدم امتلاك التنظيمات المتطرفة للقدرة التكنولوجية العالية لتوظيف هذه التقنيات السابقة “على نطاق شامل”، إلا أن غياب ضوابط تحكمها؛ فضلًا عن قصور تعزيز الأمن السيبراني أو التوسع في اعتماد حلول الذكاء الاصطناعي المُضادة، تجعلها عُرضة لإساءة استخدام أكبر وأكثر خطورة في المستقبل، وفق ما يؤكده الخبير التكنولوجي كريستوف زغبي.