هل بدأ الذكاء الاصطناعي هجومه على البشر؟ «درون» يقتل رجلاً بدون أوامر من مشغليه

حجم الخط
0

لندن-»القدس العربي»: سجلت تكنولوجيا «الذكاء الاصطناعي» حادثة هي الأولى من نوعها في العالم، حيث اتخذت طائرة بدون طيار قراراً باغتيال شخص بدون أن تتلقى أوامر بشرية بذلك، وهو ما يعزز من المخاوف السابقة التي كان قد تحدث عنها الكثير من العلماء حول احتمالات أن تتفوق هذه التكنولوجيا على عقل الإنسان وتقوم بمهاجمته ومن ثم تُهدد وجوده في هذا العالم.

وحسب صحيفة «ذا نيو ساينتيست» البريطانية فإن طائرة بدون طيار «درون» من طراز «كارجو 2» تركية الصنع كانت تحوم في أجواء ليبيا مؤخراً واتخذت قراراً من تلقاء نفسها بمهاجمة مقاتل مسلح والقضاء عليه وبدون أن تتلقى أي أوامر بذلك من قبل مشغليها.
وقالت الصحيفة إن الحادثة وقعت في آذار/مارس من العام الماضي 2020 في منطقة طرابلس الليبية، حيث دارت آنذاك المعارك العنيفة. وأوضحت أن الدرون المزود بأسلحة فتاكة طارد الهدف بشكل مستقل بدون أن يتلقى أوامر من مشغله.
ولم تورد الصحيفة أي تفاصيل أخرى للحادث.
ويذكر أن تركيا بدأت عام 2019 في إنتاج المروحية المسيرة رباعية المراوح من طراز «Kargu – 2» والبالغ وزنها 15 كيلوغراماً، وبمقدورها البقاء في الجو لمدة 30 دقيقة ويتم التحكم فيها عبر قنوات اتصال رقمية مغلقة.
وتسمح برمجيات الدرون بالقيام بدوريات في مناطق معينة له، كما تسمح له باكتشاف مختلف الأهداف وإصابتها.
وبمقدور الدرون أن يقلع ويهبط أوتوماتيكيا في موقع يحدده المشغل الذي يمكنه إلغاء غارة يريد الدرون شنها أو إعادة توجيهه إلى هدف آخر، كما أنه بمقدوره أن يحمل ذخائر شظايا وذخائر حرارية وجوفاء.
وعلق الخبير الروسي في مجال الأنظمة المسيرة، دينيس فيدودينوف، على ما حدث في ليبيا حيث قتل الدرون إنسانا بدون أن يتلقى أمرا بذلك، وقال: «يعتبر ذلك مرحلة جديدة حيث أوكل الإنسان إلى الدرون لأول مرة مهمة اتخاذ قرار بقتل إنسان آخر».
وأشار إلى أن «الأنظمة الأوتوماتيكية سابقا لم يكن بمقدورها كل مرة التعرف على الأهداف بالدقة المطلوبة. وكان يجب على الإنسان تصحيح أخطاء الدرون. وهناك جانب أخلاقي للمشكلة حيث أتيحت لدرون فرصة لقتل الإنسان وإن كان عدوا. وكان هذا الأمر مستحيلا في وقت سابق».
وكان العديد من العلماء قد أطلقوا تحذيرات من مخاطر التوسع في استخدام تكنولوجيا الذكاء الاصطناعي، إلا أن أقوى هذه التحذيرات كان على لسان عالم الفيزياء البريطاني المعروف ستيفن هوكينغ في السنوات الأخيرة قبل وفاته.
وقال البروفيسور ستيفن هوكينغ الحاصل على جائزة نوبل في تصريحات نُشرت في العام 2016 إن «شراً ما يكمن في وادي السيليكون ويتخمر هناك شيئاً فشيئاً» في إشارة إلى أن الذكاء الاصطناعي الذي تقوم أضخم شركات التكنولوجيا في العالم بتطويره في منطقة وادي السيليكون في كاليفورنيا سوف يؤدي يوماً ما إلى تدمير البشرية إذا استمر على حاله في التطور.
وأضاف هوكينغ في حديث نقلته جريدة «دايلي ميل» البريطانية إلى أن «الذكاء الاصطناعي سوف يكون من الصعب أن يتوقف ما لم تتوافر الضمانات المناسبة لذلك» مشيراً إلى أن سباق التكنولوجيا سوف يؤدي إلى صناعة رجل آلي يتطور ذكاؤه بصورة تسبق الإنسان وتتفوق على العقل البشري وبالتالي يمكن أن يخرج عن سيطرة البشر.
وقال إن الذكاء الاصطناعي المصمم ليكون مساعداً تقنياً للإنسان ومصمم لابتكار سيارات بدون سائق وطائرات بدون طيار وما إلى ذلك، إنما هو يتطور بصورة سريعة ليوجد له موطئ قدم ويصل الأمر يوماً إلى إنهاء البشرية.
وحسب عالم الفيزياء الذي يوصف بأنه عبقري ويحظى بشهرة عالمية عالية المستوى، فإن الرجال الآليين يتطورون حالياً بوتيرة أسرع من العقول البشرية، وهو ما سيجعل أهدافهم وتصرفاتهم في المستقبل غير متوقعة.
وأضاف هوكينغ: «أنا لا أعتقد بأن التطورات التي يشهدها عالم الذكاء الاصطناعي سوف تكون بالضرورة أمراً حميداً» وتابع: «عندما تصل الآلات إلى المرحلة الحرجة، وهي اللحظة التي تصبح فيها قادرة على تطوير ذاتها، سوف لن يكون بمقدورنا توقع أهدافهم وتصرفاتهم».
وقال إن «الذكاء الاصطناعي أصبحت لديه القدرة على التطور بشكل أسرع في سباقه مع الإنسان» وهو ما يمكن أن يؤدي به إلى القدرة على حسم السباق مع البشر لصالحه، وتدمير البشرية في المستقبل.

Leave a Reply

Your email address will not be published. Required fields are marked *

اشترك في قائمتنا البريدية