التشابك غير التقليدي بين التطرف والذكاء الاصطناعي

45.00 د.إ

ابراهيم نجم

Category: Tag:

Description

استكشفت دراسة إبراهيم نجم -مستشار مفتي الجمهورية في مصر، الأمين العام للأمانة العامة لدور وهيئات الإفتاء في العالم- الطرق المتشابكة التي تعمل فيها مجموعات التطرف العنيف على إدراج الذكاء الاصطناعي ضمن أطرها العملياتية. يتمثل الهدف الرئيس بالإضاءة على ذلك التخالط الخبيء، وتفحص كيفية توظيف الذكاء الاصطناعي في مهمات على غرار التجنيد ونشر البروباغاندا والتخطيط الاستراتيجي ومراوغة إجراءات الأمن السيبراني. بالإضافة إلى التعمق في سبر كيفية توظيف الكيانات الإرهابية للتقنيات الابتكارية، بدءًا من التجنيد المعزز بخوارزميات الذكاء الاصطناعي في استهداف الأشخاص الذين لديهم قابلية لذلك، ووصولًا إلى صنع بروباغاندا بتقنيات التزييف العميق بهدف التلاعب بمشاعر الجمهور. كما عملت الدراسة على إبراز واستكشاف الاستراتيجيات غير التقليدية والإشكاليات الأخلاقية التي تقفز إلى الواجهة حينما تجري مواجهة التطرف المعزز بالإرهاب. يشمل ذلك تشخيص المحتوى الإرهابي عبر الاستناد إلى الذكاء الاصطناعي، والحقل البحثي الآخذ بالصعود للمبادرات المشبعة بالذكاء الاصطناعي في مكافحة الإرهاب.

يقسم الباحث الدراسة إلى ستة أقسام: أولاً: مراجعة الأدبيات السابقة، ثانيًا: المنهجية: استكشاف مسارات غير تقليدية، ثالثًا: تطور الإرهاب في العصر الرقمي: مقاربة تاريخية، رابعًا: التأثير المجتمعي لثورة الذكاء الاصطناعي، خامسًا: التطرف في العصر الرقمي، ويبحث في الحقل المعقد للذكاء الاصطناعي في مكافحة الإرهاب، والذكاء الاصطناعي وإمكانياته كحليف مبدئيًّا، سادسًا: القلق بشأن الأخلاق وحقوق الإنسان.

ويقترح في خاتمة دراسته تقديم:

  • نماذج تنبؤية تعمل بتوجيه بشري: بصورة دائمة، يجب أن يخضع استخدام النماذج التنبؤية لتوجيه قرارات بشرية يتخذها خبراء يمتلكون فهمًا عميقًا لقدرات تلك النماذج وحدودها.
     
  • تقنيات الذكاء الاصطناعي المخادِعة: تستطيع جهود مكافحة الإرهاب توظيف تقنيات الذكاء الاصطناعي المخادِعة في حصار البروباغاندا المتطرفة وخنق محاولات التجنيد.
     
  • الصرامة في المصادقة والاختبار: من الأمور الأساسية توخي الصرامة في عمليات المصادقة والاختبار، بغية تقييم دقة نماذج التنبؤ.
     
  • المقاربة الشاملة: من الأهمية بمكان تبني مقاربة شاملة تجمع القدرات التحليلية للذكاء الاصطناعي مع الصرامة في عمليات الاختبار والمصادقة.
     
  • معايير وضوابط متينة: مع تذكر غياب المعايير المتفق عليها عالميًّا، من الضروري والملح إرساء ضوابط متينة تتحكم باستخدام تكنولوجيا الذكاء الاصطناعي في مكافحة الإرهاب.
     
  • التدقيق المستمر في حماية الخصوصية: من الضروري إجراء مراجعة تدقيقية شاملة للإجراءات المصممة لحماية خصوصية الأفراد والحريات الأساسية.
     
  • تطوير أطر العمل التشريعي: يحب توسيع أطر عمل مبادئ التشريع والحوكمة إلى أبعد من سلطات الحصول على حق الوصول إلى المعلومات.
     
  • إجراءات الشفافية: يشمل ذلك الإفصاح عن المعايير والعمليات والمصادر المتعلقة بالبيانات والمعلومات المستخدمة في التحليل التنبؤي. يتوجب نشر تقارير منتظمة بغية تقديم رؤى بشأن النماذج العاملة من الذكاء الاصطناعي، ومدى تجاوبها مع معايير الحقوق الإنسانية.
     
  • التدريب الأخلاقي للذكاء الاصطناعي: إن أفراد الأجهزة الأمنية والممارسين للذكاء للاصطناعي ممن يعملون في مكافحة الإرهاب، يجب أن يتلقوا تدريبًا متخصصًا عن الاستعمال الأخلاقي للذكاء الاصطناعي.
     
  • التقييم والتأقلم المستمرين: مع الاعتراف بالتطور المستمر في حقلي الذكاء الاصطناعي والإرهاب، يتوجب بشكل أساسي إرساء آليات عن الاستمرارية في التقييم والتأقلم بالنسبة إلى استراتيجيات مكافحة الإرهاب.
     
  • انخراط الجمهور العام: إن الشفافية والحوار المفتوح عن استعمال الذكاء الاصطناعي في مكافحة الإرهاب، يجب رعايتهما بمشاركة الجمهور العام. يشمل ذلك التواصل الواضح عن الغايات والقيود والضمانات الموضوعة لرعاية الحريات المدنية. يجب إرساء آليات لمساهمة الجمهور العام وإشرافه، بغية ضمان الموثوقية.
     
  • المراجعة الأخلاقية المستقلة: يجب التفكير في إرساء هيئات للمراجعة الأخلاقية المستقلة، بغية تقييم الإملاءات القانونية لتطبيقات الذكاء الاصطناعي في مكافحة الإرهاب.
     
  • التعاون بين أصحاب المصلحة المتعددين: ثمة حاجة ضاغطة لتشجيع التعاون بين الحكومات وشركات التكنولوجيا ومنظمات المجتمع المدني والأكاديميات، كي يعملوا بتكامل بشأن التحديات المتصلة بالذكاء الاصطناعي والمخاطر المرافقة لعمليات مكافحة الإرهاب.
     
  • الوعي العام والألفبائية الرقمية: من شأن نشر الألفبائية الرقمية ومهارات التفكير النقدي، أن تُمَكِّن الأفراد من التعرف إلى البروباغاندا الرقمية، ثم رفضها. تقدر حملات تعليمية أن تطلع الجمهور العام على المخاطر المرافقة للتطرف المستند إلى الذكاء الاصطناعي، إضافة إلى تشجيع السلوك المسؤول على الإنترنت.
     

ويختمها بالقول: إن التداخل الحساس وغير المستكشف إلى حد كبير، بين التطرف والذكاء الاصطناعي، قد طرح مجموعة معقدة من التحديات التي تتطلب إيلاء اهتمامنا لها. إن هذا التلاقي بين مجموعات التطرف العنيف والمستوى الأكثر تقدمًا في الذكاء الاصطناعي، يتحدى فهمنا التقليدي ويرغمنا على إعادة التفكير في استراتيجياتنا. فيما قد يبدو بدايةً بأن تبني فصائل متطرفة للذكاء الاصطناعي يحمل في ثناياه إشكالية متناقضة، إلا أن التمعن في الأمر يكشف أن تلك المجموعات تعرف جيدًا إمكانيات الذكاء الاصطناعي، بل إنها تطوعه لمصلحة الترويج لأجنداتها الشريرة. تؤدي تقنيات المعلوماتية والاتصالات دورًا بارزًا يصعب تجاهله، خصوصًا المنصات الرقمية على الإنترنت، في عمليات التجنيد وتبني الراديكالية. تلقي تلك الأنماط الضوء على الحاجة الملحة للتعامل مع التقاطع بين التطرف والذكاء الاصطناعي.

ويرى أنه في هذه المشهدية المتطورة والمتغيرة باستمرار، يغدو من الأساسي الاستناد إلى اليقظة والابتكار والمقاربة المتوازنة، خصوصًا حقيقة أن التقاطع بين الإرهاب والذكاء الاصطناعي يمثل تحديًّا ديناميكيًّا يتطلب استمرارية في البحث، والتنبه وبذل جهود متكاملة بغية التوصل إلى تخفيف التأثيرات النافرة على المجتمع. فيما يغدو الذكاء الاصطناعي على نحوٍ مطرد، منبثًا كجزء مكين في ترسانة المتطرفين، يتوجب على البحاثة وصُنّاع السياسة الحفاظ على اليقظة والقدرة على التأقلم بهدف ضمان الاستعمال المسؤول للذكاء الاصطناعي ومجابهة تأثير الأيديولوجيات المتطرفة في العصر الرقمي.