فيسبوك تعتذر بعد أن وصفت رجال ذوى بشرة داكنة بأنهم قرود

وأضاف المتحدث: من الواضح أن هذا خطأ غير مقبول، وتحقق الشركة في السبب لمنع حدوث السلوك مرة أخرى، وكما قلنا، بينما أجرينا تحسينات على الذكاء الاصطناعي لدينا، نعلم أنه ليس مثاليًا، ولدينا المزيد من التقدم الذي يتعين علينا تحقيقه.
وخضعت جوجل وأمازون وشركات تقنية أخرى للتدقيق لسنوات بسبب التحيز داخل أنظمة الذكاء الاصطناعي، لا سيما فيما يتعلق بقضايا العرق.
وأظهرت الدراسات أن تقنية التعرف على الوجه متحيزة ضد الأشخاص الملونين ولديها مشكلة أكبر في التعرف عليهم. مما يؤدي إلى حوادث تعرض فيها ذوى البشرة الداكنة للتمييز أو الاعتقال بسبب خطأ في الحاسب.
وفي عام 2015، اعتذرت جوجل بعد أن قام تطبيقها للصور بوضع علامة على صور الأشخاص ذوى البشرة الداكنة على أنهم غوريلا.
وتمتلك فيسبوك أحد أكبر مستودعات العالم للصور التي يمكن من خلالها تدريب خوارزميات التعرف على الوجه والأشياء.
وتسأل الشركة، التي تخصص المحتوى للمستخدمين بناءً على عاداتهم السابقة في التصفح والمشاهدة، أحيانًا ما إذا كانوا يرغبون في الاستمرار في مشاهدة المنشورات ضمن الفئات ذات الصلة.
وواجهت الشركة وتطبيق مشاركة الصور، إنستجرام، مشاكل أخرى متعلقة بالعرق. وبعد بطولة أوروبا لكرة القدم خلال شهر يوليو، على سبيل المثال، تعرض أعضاء من فريق كرة القدم الوطني في إنجلترا لإساءات عنصرية عبر الشبكة الاجتماعية بسبب الإخفاق في ركلات الترجيح في مباراة البطولة.
وتسببت القضايا العرقية أيضًا في حدوث صراع داخلي في الشركة، وفي عام 2016، طلب مارك زوكربيرج، الرئيس التنفيذي، من الموظفين التوقف عن حذف عبارة حياة السود مهمة Black Lives Matter واستبدالها بـ All Lives Matter في مساحة مشتركة في مقر الشركة في مينلو بارك بولاية كاليفورنيا.
كما نظم مئات الموظفين إضرابًا افتراضيًا العام الماضي احتجاجًا على تعامل الشركة مع منشور من الرئيس دونالد ترامب بشأن مقتل جورج فلويد في مينيابوليس.
وحذرت لجنة التجارة الفيدرالية الأمريكية في شهر أبريل من أن أدوات الذكاء الاصطناعي التي أظهرت تحيزًا عرقيًا وجنسانيًا قد تنتهك قوانين حماية المستهلك، وذلك في حال تم استخدامها لأخذ القرار بشأن الحصول على الائتمان أو الإسكان أو التوظيف.