لندن-“القدس العربي”:نشر موقع “ساينتفك” الأمريكي دراسة تبحث العمق الأخلاقي لاستخدام الروبوتات الذكية في الأعمال، وآليات تعامل البشرمع بعضها من جهة، ومع الروبوتات من جهة أخرى. ويتفاعل الناس مع الروبوتات بطريقة تختلف عن تفاعُلهم مع غيرهم من البشر، حسب الباحث سدير الشوق، وقد يؤدي هذا التحيز “في بعض الأحيان أن يقضي على ميزة استخدام الروبوت”. وقد يعني ذلك أنه “قد يكون من المناسب عدم البوح باستخدام الآلات في بعض الحالات”.
وقد نصل إلى مرحلة ما، في المستقبل القريب، من التطور في مجال الروبوتات والذكاء الاصطناعي، بحيث قد يصدق البشر بأنهم يتعاملون مع بشري في حين هو في الواقع روبوت. وذلك في طبيعة الحال، لا يعني أن الروبوتات ستصل إلى مرحلة تفكر فيها كما يفكر البشر، إذ لم نتوصل بعد إلى فهم علمي لمبادئ وآليات الوعي البشري، ولذلك فإن بنية “وعي” الذكاء الاصطناعي، قائمة على مبادئ منطقية استنباطية، وحقائق أكسيوماتية أولية يحددها المبرمج.
وفي عام 2018 صممت شركة غوغل تجربة مساعد صوتي آلي يُحاكي محادثة عادية إلى حد كبير، أي بما يكفي ليبدو بشريًّا عند تحديد المواعيد عبر الهاتف. وأثار البرنامج، حسب الشوق، مخاوف أخلاقية، إذ “جادل الكثيرون بأن إخفاء حقيقة أن شخصًا ما يتحدث إلى آلة يُعد ضربًا من الخداع”.
وإلى جانب المخاوف الأخلاقية، ثمة تساؤل يطرح نفسه حول ما إذا كان الناس يتفاعلون مع الآلات على نحو مختلف، وهو الأمر الذي ربما يقلل من نفعها. لفهم تفاصيل ذلك، استعان فريق دولي من الباحثين بنحو 700 متطوع لِلَعِب 50 جولة من “معضلة السجين” وهي لعبة يستطيع اللاعبون فيها إما أن يتصرفوا بأنانية لاحتمالية أن يحصلوا على مكافأة كبيرة، أو أن يتعاونوا للحصول على مكافأة أكيدة، ولكنها أصغر. ويشير الشوق إلى أنه “لعب المشاركون مع إنسان أو روبوت، ولكن ضُلِّل نصفهم بشأن هوية شريكهم في اللعب. إذ كانوا يظنون أنهم يتفاعلون مع إنسان، في حين كانوا يتفاعلون مع روبوت في حقيقة الأمر، أو العكس بالعكس”.
وعلى الرغم من إثبات الروبوتات أنها أفضل من البشر في استمالة شريكها إلى التعاون، فقد “تلاشت مزاياها عندما اعتقد المشاركون أنهم يلعبون مع روبوت”. وتراجعت احتمالات تعاون البشر مع شريك اعتقدوا أنه روبوت، وكان هذا التحيز كافياً لتحييد مهارات الروبوتات في استمالة شركائها إلى التعاون.
وقال طلال رهوان، من جامعة نيويورك في أبو ظبي، والمشرف على الدراسة الحالية: “إن النتائج تسلط الضوء على الثمن المحتمل الذي قد يتكبده المجتمع لقاء الشفافية” وأضاف أن هذا قد يعتمد على السياق. ويردف قائلًا: “يُشكِّل تحديد التطبيقات التي تُتيح المفاضلة بين الشفافية والكفاءة، والتطبيقات التي لا تُتيح ذلك موضوعًا بحثيًّا مفتوحًا”.
وأجرى الباحثون اختبارًا لاكتشاف إن كان من الممكن التغلُّب على هذا التحيُّز في التعامل البشري مع الروبوت، وأخبروا 190 من المشاركين أن المعلومات تشير إلى أن أداء الأشخاص يكون في أفضل حالاته عندما يتعاملون مع الروبوت على أنه إنسان، ومع ذلك لم تختلف آلية تعامل اللاعبين مع الروبوت، إذ “ظل اللاعبون يُظهرون المستوى المنخفض ذاته من التعاون مع الروبوتات”.
وقال برينت ميتلشتات، اختصاصي الأخلاقيات في “معهد أكسفورد للإنترنت” والذي لم يشارك في الدراسة الحالية: “إن البحث يطرح السؤال الصعب حول درجة المعرفة التي لا بد من الكشف عنها حول ما إن كان نظام آلي يُشارك في عملية صنع قرار بشرية أو مؤسسية أم لا. على سبيل المثال، هل يتعيَّن أن يكون لدى المدعى عليه الحق المطلق في معرفة ما إذا كان قد جرى استخدام نظام آلي لحساب المخاطر في محاكمته وأخذ القاضي نتائج هذا النظام بعين الاعتبار، أم لا؟ وهل ينطبق الأمر نفسه على تشخيص الطبيب لحالة مريضه؟”.
واشار رهوان إلى أنه “لا نُحبذ اتخاذ موقف بشأن المسائل المعيارية، نظرًا إلى أننا نعمل في مجال العلوم، وليس في مجال وضع السياسات. ومع ذلك، يشير عملنا إلى أن تبنِّي سياسة عامة قد لا يكون خيارًا مثاليًّا دائمًا لجميع الأهداف” وهو ما يُسلِّط الضوء على الحاجة إلى التباحث حول ما إذا كانت هناك حاجة إلى الشفافية بشأن التفاعل مع الآلات، ومتى تنشأ هذه الحاجة.
ويأمل ميتلشتات أن نلجأ في المستقبل “إلى تطبيق الحق في المعرفة في أغلب المواقف، أو على أدنى تقديرٍ، في تلك المواقف التي قد ينجم عن التفاعل فيها ضرر مادي أو نفسي”. ويضيف قائلًا: “سنكون في حاجة إلى المزيد والمزيد من الأبحاث التي تستكشف الآثار الاجتماعية والنفسية والأخلاقية الناتجة عن التفاعل مع الروبوتات، سواء عندما تفصح عن كونها روبوتات وليست بشرًا، أو عندما تُخفي تلك الحقيقة. فمن الممكن أن يترتب على التفاعل مع شخص آخر، خاصةً إذا كان هذا التفاعل وجهًا لوجه، فوائد نفسية واجتماعية كبيرة يصعب تقديرها، ويمكن بسهولة أن تُفْقَد أو تُهمَل في خضم عملية تطوير مدفوعة في المقام الأول بالسعي لتحقيق قدر أعلى من الكفاءة أو الاقتصاد في النفقات”.