الأمم المتحدة تحذر من استخدام داعش للذكاء الاصطناعي - هرم مصر

سكاي نيوز 0 تعليق ارسل طباعة تبليغ حذف

حذّر خبراء مكافحة الإرهاب في الأمم المتحدة، خلال جلسة لمجلس الأمن، من أن تنظيم "داعش" بدأ يستخدم تقنيات متطورة، من بينها الذكاء الاصطناعي ووسائل التواصل الاجتماعي، ما يمثل تحدياً جديداً أمام المجتمع الدولي.

ودعت المنظمة الأممية إلى إيجاد حلول مبتكرة لمواجهة هذا التهديد، خصوصاً مع توظيف التنظيمات الإرهابية للتكنولوجيا في مجالات التجنيد والتمويل والدعاية.

وفي هذا السياق، قال أحمد الشيخ، نائب رئيس مجلس الإعلام الرقمي في نقابة الصحفيين البريطانية والباحث في الذكاء الاصطناعي، في مقابلة مع سكاي نيوز عربية: "نحن لدينا عدة مستويات لمكافحة الإرهاب على وسائل التواصل الاجتماعي واستخدام الذكاء الاصطناعي. المستوى الأول يتعلق بالشركات الكبرى التي تضع سياسات صارمة لمنع إنتاج محتوى يحض على الكراهية أو الإرهاب عبر أدواتها مثل (جيميناي) أو (تشات جي بي تي). لكن المشكلة أن هناك شركات أخرى أكثر تسامحاً مع هذا النوع من المحتوى، وهو ما يجعل الإرهابيين قادرين على إنتاج نصوص وشخصيات افتراضية يمكن أن تظل تحرض للأبد".

وأضاف الشيخ أن تقنيات التزييف العميق باتت تشكل خطراً متزايداً، موضحاً: "يمكن باستخدام الذكاء الاصطناعي إنتاج شخصية لشخص مات وكان معروفاً بالتحريض على الإرهاب، ليظل حياً افتراضياً. هذا الشخص الافتراضي يمكن أن يستمر في إلقاء خطب أو إصدار فتاوى تحريضية إلى الأبد".

وأكد أن هذا الأمر "قد ينطلي على المتلقي في كثير من الأحيان، خصوصاً إذا كان ضعيفاً أو يبحث عما يدغدغ مشاعره، حيث يتم خلط السم بالعسل لإقناعه".

وأشار الشيخ إلى أن ما يزيد المخاطر هو أن بعض الدول مثل دول أفريقيا تشهد انتشاراً واسعاً للتكنولوجيا رغم انخفاض مستويات التعليم.

وقال: "في أفريقيا، معدل التعليم منخفض مقارنة بأوروبا، لكن معدل استخدام الهواتف المحمولة والإنترنت مرتفع جداً، ما يجعلها أرضاً خصبة لنشر الأفكار الإرهابية باستخدام التكنولوجيا إذا لم يقترن ذلك بالتوعية الكافية".

وحول إمكانية وضع ضوابط صارمة لاستخدام الذكاء الاصطناعي، أوضح الشيخ أن هناك مستويين من الرقابة: "الأول يتعلق بالشركات الكبرى التي يمكن إخضاعها للقوانين المحلية والدولية. أما المستوى الثاني فيتعلق بالشركات الصغيرة والمغمورة، التي لا نعرف حتى مكانها أو سياساتها، وبالتالي يصعب إخضاعها لأي قوانين".

وشدد على أن المسؤولية في هذا المجال مشتركة، قائلا: "هناك مسؤولية قانونية تقع على الشخص الذي ينتج رسالة تحريضية، وأخرى على الأداة أو التقنية التي تم استخدامها، إضافة إلى مسؤولية المنصة التي تنشر المحتوى. لكن المشكلة أن تطبيق هذه المسؤوليات يختلف من دولة إلى أخرى".

ولفت الشيخ إلى جانب آخر يتعلق بانحياز الخوارزميات، قائلاً: "الخوارزميات تطبق مبادئ مختلفة باختلاف الدول. ففي بعض الحالات يتم حذف محتوى بشكل فوري لأنه يتعارض مع قوانين دولة معينة، بينما يتم التساهل مع محتويات مشابهة في دول أخرى".

وفي مثال عملي على ذلك، كشف الشيخ أنه جرب بنفسه سؤال أحد برامج الذكاء الاصطناعي (تشات جي بي تي) عن كيفية صنع قنبلة، فجاء الرد بالرفض. لكنه أضاف أن هناك تطبيقات أخرى "تقدم بالفعل إجابات متسامحة، بل وتساعد المستخدم في البحث عن هذه المعلومات"، وهو ما يثير خطراً أكبر، خاصة مع وجود نسخ مختلفة من المنصات نفسها تقدم مستويات متفاوتة من الضوابط.

وأشار إلى أن بعض الجماعات الإرهابية استفادت بالفعل من أدوات الذكاء الاصطناعي التوليدي في نشر رسائلها بلغات متعددة للوصول إلى جماهير جديدة حول العالم.

وقال: "بدل أن يقوم تنظيم داعش بتوظيف مترجمين، بات يعتمد على الذكاء الاصطناعي لإيصال رسائله إلى دول مثل الفلبين أو رواندا بلغاتها المحلية".

واعتبر الشيخ أن الخطر يكمن في أن الذكاء الاصطناعي أصبح أداة يمكن استخدامها للخير والشر على حد سواء، مضيفاً: "كما كان الإرهابيون سابقاً يستخدمون الهاتف المحمول أو الرسائل لتنظيم أنشطتهم، أصبحوا الآن يعتمدون على الذكاء الاصطناعي. لذلك لابد من وضع قيود صارمة تحول دون وصولهم إلى هذه الأدوات".

وفي ختام حديثه، أكد أحمد الشيخ أن "الذكاء الاصطناعي اليوم يمكن أن يقوم بكل المهمات، وهو ما يجعل خطره مضاعفاً عندما يقع في أيدي الجماعات الإرهابية".

وبالتوازي مع هذه التحذيرات، أظهرت نتائج استطلاع للرأي أجرته سكاي نيوز عربية عبر منصاتها على وسائل التواصل الاجتماعي، أن 79% من المشاركين يؤيدون وضع ضوابط على استخدام الذكاء الاصطناعي، مقابل 21% فقط لم يوافقوا على فرض قيود.

ويعكس هذا الانقسام تزايد المخاوف المجتمعية والدولية من أن تتحول الابتكارات التكنولوجية من أداة لخدمة الإنسان إلى وسيلة تستخدمها الجماعات المتطرفة لتوسيع دائرة العنف والإرهاب.

إخترنا لك

أخبار ذات صلة

0 تعليق