• ×
الأحد 24 نوفمبر 2024 | 11-23-2024

" العنصرية " تدخل عالم أنظمة التعرف على الوجوه

" العنصرية " تدخل عالم أنظمة التعرف على الوجوه
0
0
الشبكة الإعلامية السعودية_ دعاء الحربي وجدت دراسة حديثة عيبا جديدا في برامج التعرف على الوجوه، عقب عدم قدرتها على التمييز بين الأشخاص ذوي البشرة السمراء أو الداكنة .

وطرح مختبر MIT Media مشروع "Gender Shades"، لاختبار برامج التعرف على الوجوه في مايركوسوفت وIBM وFace++، حيث شملت الدراسة أكثر من 1200 صورة لأشخاص من 6 بلدان إفريقية وأوروبية .

ووجد الباحثون أنه يمكن للبرامج تخمين جنس الشخص بنسبة 99%، ولكنها ارتكبت أخطاء بنسبة أكبر من 35%، عند دراسة وجوه أصحاب البشرة الداكنة .

وتسببت صور الرجال بحوالي 8% من الأخطاء، في حين تجاوزت نسبة الخطأ في صور النساء 20%. وارتكبت برامج التعرف على الوجوه أخطاء أقل عند تحديد الوجوه ذات البشرة الفاتحة، حيث تراوحت معدلات الخطأ بين 11 و20% .

وتقول الدراسة إنه في حين استخدام برامج التعرف على الوجوه بشكل متزايد من قبل الأنظمة القانونية في الولايات المتحدة، إلا أنه لم يتم اختبار النتائج بشكل عام للتأكد من دقتها .

وقال دوي بولامويني، المعد الرئيس للدراسة: "يتم تصميم هذا النوع من التكنولوجيا بناء على تقنيات التعلم الآلي التي تستند على البيانات. لذا، من المحتمل الحصول على نتائج متحيزة ".

وذكر تقرير معهد ماساتشوستس للتكنولوجيا، أن هذا الخطأ التقني يتطلب اهتماما عاجلا، خاصة أن برامج التعلم الآلي تُستخدم حاليا في تحديد طلبات القروض والوظائف والجامعات .

وفي أغسطس الماضي، تم الكشف عن قيام الشرطة البريطانية بتصنيف أكثر من 20 مليون صورة للوجوه، أي ما يعادل ثلث سكان بريطانيا. وفي وقت سابق من هذا الشهر، بدأت الشرطة الصينية اختبارات نظارات التعرف على الوجوه، لتحديد المجرمين أو الهاربين المشتبه بهم .

المصدر / RT