لندن-“القدس العربي”: أوقفت شركة “آي بي إم” للتكنولوجيا تطوير تقنيات التعرف على الوجه وانسحبت من هذا السوق في حين تتزايد المطالبات بإجراء حوار وطني في الولايات المتحدة، حول الاستخدامات العنصرية للشرطة لهذه التكنولوجيا، إلا جانب التدقيق المتزايد لعقود الشركة مع الشرطة وسط حملات القمع العنيفة للاحتجاجات السلمية في أمريكا. وتوقفت الشركة عن تقديم برامج التعرف على الوجه من أجل المراقبة الجماعية أو التنميط العرقي، وقال إن أنظمة الذكاء الاصطناعي المستخدمة في هذه التكنولوجيا تحتاج إلى اختبار للتحيز.
وحثت الشركة على استخدام التكنولوجيا التي من شأنها تحقيق قدر أكبر من الشفافية، مثل كاميرات الجسم وتحليلات البيانات، بدلاً من الاعتماد على تقنية التعرف على الوجه التي قد تكون متحيزة.
وشرح الرئيس التنفيذي للشركة آرفيند كريشنا، في رسالة عامة إلى الكونغرس قرار الشركة بالتراجع عن العمل، معلناً عن نيته العمل مع الكونغرس لتحقيق العدالة العرقية، بحيث يركز العمل في البداية على ثلاثة مجالات رئيسية:
إصلاح الشرطة والاستخدام المسؤول للتكنولوجيا وتوسيع المهارات والفرص التعليمية.
وقال كريشنا: “إن الشركة لم تعد تقدم برامج التعرف على الوجه أو تحليلها للأغراض العامة، وتعارض آي بي إم بشدة استخدامات أي تقنية، من ضمنها تقنية التعرف على الوجه التي يقدمها بائعون آخرون، للمراقبة الجماعية والتنميط العنصري وانتهاكات حقوق الإنسان والحريات الأساسية أو أي أغراض، لا تتوافق مع قيمنا ومبادئنا.”
وأضاف: “نعتقد الآن أنه الوقت المناسب لبدء حوار وطني حول ما إذا كان ينبغي استخدام تكنولوجيا التعرف على الوجه من قبل وكالات تطبيق القانون المحلية وكيف” إلا أن الكثيرين يشككون من مصداقية خطوة آي بي إم، مشيرين إلى أن الشركة كانت الثالثة في سباق بيع تقنية التعرف على الوجه. وتحتفظ الشركة بالحق في بيع تقنية التعرف على الوجه لأغراض محددة، بالإضافة إلى حقها في التكنولوجيا التي باعتها للشركات الأخرى كجزء من أعمالها الاستشارية الكبيرة.
وأشار موقع “آي أي تي” التقني أنه “لا يزال بيان آي بي إم هو الأقوى حتى الآن من شركات التكنولوجيا الكبرى ضد إساءة استخدام خدمات التعرف على الوجه، التي أثارت الذعر بين مجتمعات الحقوق المدنية لقدرتها على تتبع السكان بصمت.”
ومع تطور الذكاء الاصطناعي، شهدت تقنيات التعرف على الوجه، بطبيعة الحال، تقدما كبيرا، ومع ذلك تم اثبات أنها تتضمن تحيزات عرقية، ما قد يجعل منها أداة غير موثوقة لدعم قوات الأمن والشرطة، خاصة أن الأخيرة تعد عنصرية في العديد من البلاد، ما يجعل هذه التقنيات تستخدم في الانتهاكات المحتملة للحقوق المدنية.
وكشف بحث صادر في عام 2018 عن مدى انحياز العديد من أنظمة التعرف على الوجه التجارية، التي من ضمنها أنظمة آي بي إم، وأدى هذا البحث والدراسات اللاحقة إلى ظهور انتقادات لهذه الخوارزميات والمحاولات المستمرة لتصحيح التحيز. ووجدت دراسة أجريت عام 2019 أن أدوات التعرف على الوجه من مايكروسوفت وأمازون وآي بي إم لم تكن دقيقة بنسبة 100في المئة عندما يتعلق الأمر بالتعرف على الرجال والنساء ذوي البشرة الداكنة. واقترحت دراسة من المعهد الوطني الأمريكي للمعايير والتكنولوجيا أن خوارزميات التعرف على الوجه كانت أقل دقة في تحديد الوجوه الأمريكية الأفريقية والآسيوية مقارنة بالوجوه القوقازية. وحاولت آي بي إم المساعدة في قضية تحيز تقنية التعرف على الوجه، حيث أصدرت مجموعة بيانات عامة في 2018 مصممة للمساعدة في تقليل التحيز كجزء من بيانات التدريب لنموذج التعرف على الوجه.