كارثة: الذكاء الاصطناعي قد يُمارس التمييز ضد البشر وينحاز ضد بعضهم

حجم الخط
0

لندن-“القدس العربي”: تظهر يوماً بعد آخر العيوب والمشاكل التي تواجه الناس بسبب التكنولوجيا الحديثة والتطور التقني الهائل الذي توصلت له البشرية، فيما يبدو أن “الذكاء الاصطناعي” هو التكنولوجيا الأكثر إثارة للقلق بالنسبة للعلماء الذين يطلقون العديد من التحذيرات بين الحين والآخر إزاء هذه التكنولوجيا وجاء آخرها على لسان خبير عالمي متخصص قال إنها “من الممكن أن تمارس تحيزاً ضد بعض الفئات من الناس”.

وتكنولوجيا الذكاء الاصطناعي التي يُرمز لها بــ”AI” هي التي يتم استخدامها في عمليات إنتاج الإنسان الآلي “الروبوت” الذي يلقى انتشاراً واسعاً هذه الأيام، كما يتوقع أن يستحوذ على كثير من القطاعات في المستقبل، وتُعرَّف تكنولوجيا “الذكاء الاصطناعي” بأنها “محاكاة الذكاء البشري بواسطة الآلات”.

وفي أحدث تحذير من هذه التكنولوجيا نقلت جريدة “دايلي إكسبريس” البريطانية في تقرير لها عن أحد الخبراء قوله إن هذه الأنظمة تواجه تهديدا أساسيا بسبب تأثير التحيز المتأصل فيها.

وقال بيتر فان دير بوتن، الأستاذ المساعد في الذكاء الاصطناعي بجامعة ليدن “إن التحيز يمثل كارثة محتملة. وإن الذكاء الاصطناعي بحكم تعريفه هو تقنية شريرة، فهو ليس جيدا ولا سيئاً. لكنه ليس محايدا أيضا، لأنه مبني على البيانات والمنطق الموجود في العالم الحقيقي. وبهذا المعنى، يمكن أيضا أن يديم التحيز الموجود في العالم الحقيقي”.

ومضى الخبير التقني يشرح سبب تأثر التكنولوجيا الناشئة بالتحيز، قائلا: “ربما هناك تقريبا ثلاث طرق يمكن أن يتسلل بها التحيز. وعندما تفكر في الذكاء الاصطناعي، يمكن أن يكون لديك أنظمة تعليمية تتعلم كيف تصبح ذكية، وأنظمة منطقية تستخدم المنطق. لذا، في كلا الاتجاهين، يمكننا استخدام البيانات المتحيزة لتدريب الذكاء الاصطناعي لدينا على البيانات التي تُستخدم لكي يصبح ذكيا، ويمكن بالطبع أن تحتوي هذه القواعد على تحيز فيها، ثم علاوة على ذلك، يمكن أن تكون مشكلات بيانات بسيطة تحدث غالبا عندما تبدأ، بعد تطوير الذكاء الاصطناعي، فأنت تستخدمه بالفعل ثم، يمكن أن تتسلل جميع أنواع التحيز بسبب البيانات التي يتم إدخالها في هذه القرارات الآلية”.

وانتشرت تقارير مؤخراً حول كيفية تقديم بطاقة ائتمان “آبل” حدودا مختلفة للرجال والنساء، حيث أعرب المؤسس المشارك لشركة “آب” ستيف وزنياك عن مخاوفه من أن الخوارزميات المستخدمة لوضع حدود قد تكون متحيزة بطبيعتها ضد النساء.

وقال مدير اتخاذ القرار في شركة “بيغا سيستمز” الأمريكية المتخصصة ببرمجيات الكمبيوتر إن “الذكاء الاصطناعي متحيز مثل البيانات المستخدمة في إنشائه. وحتى لو كان لدى المصممين أفضل النوايا، فقد تتسلل الأخطاء من خلال اختيار البيانات المتحيزة لنماذج التعلم الآلي، وكذلك التحيز والافتراضات في المنطق المدمج. لذا، تحتاج المؤسسات المالية إلى التأكد من أن البيانات المستخدمة لإنشاء الخوارزميات الخاصة بها، تفتقر إلى التحيز قدر الإمكان. وبالإضافة إلى ذلك، يجب على المرء أن يدرك أن القرارات البشرية يمكن أن تكون أيضا ذاتية ومعيبة، لذلك يجب علينا التعامل معها بتدقيق أيضا”.

وحذر خبير الذكاء الاصطناعي من أنه على الأرجح لا يمكن القضاء على التحيز المتأصل في هذه التكنولوجيا. وقال: “التحيز نفسه لا يمكن استئصاله بالكامل. إنها ليست مشكلة ثنائية حيث تقول إنها مشكلة نعم أو لا، فهناك تحيز أو لا يوجد تحيز. هناك دائما تحيز إلى حد ما، لذا فإن ما تفعله هو الاحتفاظ به ضمن الحدود المقبولة. أعتقد أن هذا ما يجب أن تحاول القيام به، لمحاولة القضاء عليه قدر الإمكان”.

يشار إلى أن مجموعة من العلماء أطلقوا العام الماضي صرخة تحذير من تكنولوجيا الذكاء الاصطناعي التي تغزو العالم، وحذروا من أن نهاية البشرية يمكن أن تكون بسبب الأسلحة التي تتخذ قراراتها بشكل ذاتي مثل “الروبوت” والطائرات بدون طيار، وغير ذلك من الأسلحة الحديثة.

ودعت مجموعة من العلماء إلى حظر تطوير أسلحة يتم التحكم بها بواسطة الذكاء الاصطناعي، مشيرين إلى أنها قد يصيبها عطب بطريقة غير متوقعة فتقتل أبرياء، ويقول المختصون إن منح إنسان آلي حرية القتل بدون أي تدخل بشري خطوة مبالغ بها من الناحية الأخلاقية.

وكان وزير الخارجية الأمريكي الأسبق هنري كسينجر تحدث عن عواقب خطيرة لتقنيات الذكاء الاصطناعي على البشرية ومستقبلها، وقال في مقاله نشرها موقع “ذا أتلانتك” الأمريكي إن “تقنيات الذكاء الاصطناعي تقود العالم إلى نقطة زمنية قد يطغى فيها ذكاء الآلة على ذكاء البشر، وعلينا أن نستعد منذ الآن لمثل هذا السيناريو”.

وتساءل المسؤول الأمريكي السابق: “ماذا لو تعلمت الروبوتات التواصل فيما بينها؟ ماذا لو وضعت لنفسها أهدافا؟ ماذا لو بدأت تتخذ قرارات مصيرية نيابة عن البشر؟”.

وخلص إلى نتيجة مفادها أن الذكاء الاصطناعي يستطيع الخروج عن النمط التلقائي مع التدريب والممارسة، أي البدء بتطوير “المحاكمة العقلية” التي يتميز بها البشر عن سواهم، وحينها، تكون الآلة قادرة على تحديد أهداف لها، غير مرتبطة بالضرورة بالأهداف التي وضعها لها المبرمجون.

Leave a Reply

Your email address will not be published. Required fields are marked *

اشترك في قائمتنا البريدية