خبراء يحذرون من “استخدام خبيث” للذكاء الاصطناعي من قبل طغاة وإرهابيين 

حجم الخط
1

 باريس- “القدس العربي” – آدم جابيرا:

حذر خبراء في تقرير جديد من مغبة خطر سوء استخدام’’ الذكاء الاصطناعي’’، موضحين أن طغاة ومجرمين وإرهابيين قد يستعينون بهذه التكنولوجيا من أجل التلاعب بالانتخابات واللجوء إلى طائرات مسيّرة لشن هجمات.

  التقرير مكون من مائة صفحة وجاء تحت عنوان: ’’ الاستخدام الخبيث للذكاء الاصطناعي… التوقع، الوقاية، وتخفيف الأثر”. وقد شارك في إعداده مجموعة من الخبراء من مؤسسة “ألكترونيك فرونتير فاونديشن”، ومركز “نيو أميريكن سكيوريتي”، و”أوبن ايه أي”. ومن بين معدي التقرير السيد شون أو هيغيرتاي المدير التنفيذي في مركز كامبريدج لدراسة المخاطر الوجودية، الذي أكد أن’’ التقرير يركز على الطرق المتاحة لإلحاق ضرر مقصود عبر استخدام الذكاء الاصطناعي’’.

 وأوضح الخبراء أن هناك تزايدا مطردا في جرائم المعلوماتية واستخدام “بوتات” وهي: برامج خبيثة يستخدمها القراصنة وتنتشر تلقائيا للتدخل في جمع الأخبار واختراق وسائل التواصل الاجتماعي، عارضين مجموعة من السيناريوهات المحتملة التي يمكن أن نشهدها في السنوات الخمس أو العشر المقبلة. منها أن’’ الذكاء الاصطناعي قد يطرح تهديدات جديدة، أو قد يغير طبيعة التهديدات القائمة في مجالات الأمن المعلوماتي والمادي والسياسي’’. كما أن الاستخدام الشائع لـــــ(فيشينغ) أو’’ التصيد الاحتيالي’’ وهو’’ إرسال رسائل الكترونية تتضمن برامج خبيثة لاصطياد معلومات شخصية قيمة’’، قد يصبح أكثر خطورة بأشواط.

 التجسس على الشعوب 

 من السيناريوهات المحتملة في السنوات الـ 5 أو 10 القادمة، حسب التقرير، أنه سيكون بإمكان’’ الطغاة وقادة الأنظمة الديكتاتورية تحديد، وبشكل أسرع، هويات الأشخاص الذين قد يكونون يخططون لقلب النظام، وتحديد أماكن تواجدهم، وزجهم في السجون قبل تحركهم’’. مع العلم أنه يمكن لهؤلاء الطغاة حاليا استخدام التكنولوجيا المتقدمة لغربلة كميات هائلة من المعلومات تم تجميعها بواسطة شبكات المراقبة المنتشرة للتجسس على شعبهم.

كما حذر التقرير من مغبة أن الدعاية الموجهة المترافقة مع تسجيلات فيديو مزيفة رخيصة ومقنعة بشكل كبير أضحت أدوات فاعلة للتلاعب بالرأي العامة على مستويات كبيرة، مشيرا في هذا الإطار إلى الاتهام الذي وجهه قبل أيام المحقق الخاص روبرت مولر والذي أورد بالتفصيل عملية واسعة النطاق لزرع الشقاق في الولايات المتحدة والتأثير على الانتخابات الرئاسية الأخيرة، حيث تلاعبت’’ شبكات تصيد’’ بآلاف ’’ بوتات الانترنت’’ على وسائل التواصل الاجتماعي، خصوصا فيسبوك وتوتير.

  أسلحة ذاتية التحكم 

  وأيضا أشار الخبراء في تقريرهم إلى أنه ثمة خطر آخر يلوح في الأفق ويتعلق الأمر بمنع انتشار الطائرات من دون طيار و’’ الروبوتات’’ التي قد تستخدم لغايات أخرى كالتسبب بحوادث للمركبات الذاتية التحكم، وإطلاق صواريخ، أو تهديد بنى تحتية حساسة من أجل الحصول على فدية.

    ويدعو الخبراء في تقريرهم كلا من المسؤولين والشركات إلى جعل برامج تشغيل الروبوت غير قابلة للقرصنة، وفرض قيود أمنية على بعض الأبحاث، والنظر في تعزيز القوانين والأنظمة التي تحكم تطوير الذكاء

الاصطناعي. إذ يرى هؤلاء الخبراء أن شركات التكنولوجيا المتقدمة الكبرى، الرائدة في مجال الذكاء الاصطناعي لديها الكثير من الحوافز للتأكد من أن الذكاء الاصطناعي آمن ويمكن الاستفادة منه.

  ثورة ثالثة في مجال الحروب الذرية

 وفي ظل القلق الذي أصبح يثيره الاستخدام المتزايد للأسلحة الفتاكة ذاتية التحكم، وجهت العام الماضي أكثر من مائة شخصية من أصحاب الشركات التي تعنى بالذكاء الاصطناعي والروبوتات، من بينهم المدير التنفيذي لشركتي’’ تيسلا’’ و’’ سبايس أكس’’ أيلون ماسك، وعالم الفيزياء الفلكية البريطاني ستيفن هوكينغ، عريضة موقعة إلى منظمة الأمم المتحدة للمطالبة بـــ’’حظر الروبوتات القاتلة الذاتية التحكم’’، محذرين من أن’’ الأسلحة الفتاكة الذاتية قد تتحول إلى ثورة ثالثة في مجال الحروب، بعد اختراع الرشاشات والقنبلة الذرية، وأنها قد تستخدم من قبل إرهابيين لقتل مدنيين’’.

كلمات مفتاحية

Leave a Reply

Your email address will not be published. Required fields are marked *

اشترك في قائمتنا البريدية