هل يمكن اعتبار التحيز في الذكاء الاصطناعي قضية مسؤولية اجتماعية للشركات؟

4 دقائق
مشكلة التحيز في الذكاء الاصطناعي

في أواخر عام 2018، أوقفت أمازون استخدام نظام توظيفها القائم على الذكاء الاصطناعي بعدما اكتشفت أنه كان متحيزاً ضد النساء. فوفقاً لمصادر مطلعة على مشكلة التحيز في الذكاء الاصطناعي، كان النظام يعطي تصنيفات منخفضة للسير المهنية التي تحوي كلمتي "امرأة" أو "نساء" في طلبات التقدّم للعمل في مناصب فنية، فضلاً عن قيامه بالاستبعاد الكامل لجامعتين تقدمان برامجهما الدراسية للإناث فقط.

مشكلة التحيز في الذكاء الاصطناعي

ولا تعتبر هذه المشكلة بالجديدة، ففي عام 2003، أجرى "المكتب الوطني للنمو الاقتصادي" (NBER) تجربة حاول فيها تتبع وجود أي تحيز عنصري في عمليات التوظيف. وخلال الاختبار، أرسل المكتب مجموعتين متطابقتين من السير الذاتية الوهمية، فيما يتعلق بمعلومات التعليم والخبرة، لكن كان للأولى أسماء توحي بأن أصحابها من أصول أميركية أفريقية، في حين كان للثانية أسماء قوقازية. ووجد المكتب حصول "المتقدمين" من ذوي الأسماء القوقازية على دعوات للمقابلة أكثر بنسبة 50% من نظرائهم الأميركيين الأفريقيين. ومما سبق، يمكننا طرح السؤال التالي: كيف يمكننا إنشاء ممارسات توظيف أكثر عدالة وإنصاف؟ كان يُفترض بأنظمة التوظيف المعتمدة على الخوارزميات أن تكون هي الحل، على اعتبار أنها، ووفقاً للمدافعين عنها، تزيل التحيز البشري لأن قراراتها تكون مستندة إلى تنبؤات إحصائية حول المرشحين ذوي الأرجحية أن يكونوا "مناسبين".

إلا أن مناصري ذاك الحل لم يأخذوا في الاعتبار كيفية عمل هذه الخوارزميات فعلياً. ففي حالة شركة أمازون، تم تدريب الخوارزميات، المسؤولة عن أتمتة عمليات التوظيف، لتختار أفضل المرشحين وفقاً لكلمات رئيسة تُذكر غالباً ضمن أفضل السير الذاتية. ويبدو هذا منطقياً، إلا أنه يعطي في الوقت ذاته الفرصة لتسلل التحيز، إذ لا يمكن تدريب الخوارزميات على فهم السياق الاجتماعي. ففي حالة التوظيف، غالباً ما تلعب سياسة مكان العمل دوراً في تقييمات الأداء، إذ يمكن أن يتم تقييم الموظفين، على سبيل المثال، على أنهم "ذوي أداء أفضل" لقرابتهم لمسؤول تنفيذي أو لأقدميتهم أو لوجودهم في نفس المجموعات الاجتماعية الخاصة بمدرائهم. لكن لا يمكن رؤية أي مما سبق على نماذج تقييم الموظف التي تم استخدامها لتدريب آلات التوظيف الآلية تلك، حيث يقوم علماء الكمبيوتر بكل ببساطة بوضع السير الذاتية للموظفين ذوي الأداء الأعلى في كل منصب في تلك الآلات. ومن الواضح أن تلك السير لا تُظهر الصورة كاملة، بل تؤكد فقط الوضع الراهن وجميع التحيزات الكامنة فيه.

ولهذا تقول عالمة البيانات كاثي أونيل أن النماذج الإحصائية التي تنتجها أنظمة اتخاذ القرارات الآلية هي مجرد آراء مكتوبة في سطر برمجي، حيث تقول أنه لا ينبغي علينا الافتراض بأن مجموعات بيانات التدريب دقيقة أو غير متحيزة وذلك نظراً إلى أنها مبرمجة وفق تحيزات المبرمجين (وهم ذكور بيض إلى حد كبير). وهذا ما تسميه الباحثة القانونية رشيدة ريتشاردسون بالبيانات الملوثة.

لكن لماذا يعتبر ما سبق خطيراً للغاية؟ يعود السبب في ذلك إلى أن القرارات المتخذة باستخدام البيانات الملوثة تعود مرة أخرى إلى مجموعات البيانات التدريبية ثم تستخدم مرة ثانية لتقييم المعلومات الجديدة، الأمر الذي يمكن أن يتسبب في إنشاء حلقة تغذية مرتدة سامة تستمر فيها القرارات القائمة على التحيزات التاريخية بالحدوث إلى الأبد.

كيف يمكن للشركات الحد من التحيز في بيانات التدريب؟

كانت واحدة من المجموعات التي فكرت في تأثير التحيز في بيانات التدريب هي مجموعة "الرؤساء التنفيذيين لغاية الشركات" (CECP)، والتي هي تحالف يضم 200 مدير تنفيذي من الشركات الرائدة في العالم. وفي عام 2018، نشرت المجموعة تقريراً بعنوان "الذكاء الاصطناعي لصالح الخير: ما ينبغي أن يعرفه مختصو المسؤولية الاجتماعية للشركات". وينص التقرير على أن من واجب فرق المسؤولية الاجتماعية للشركات جمع بيانات التأثير الاجتماعي على السكان المستهدفين لمواجهة التحيزات التي تُظهرها أنظمة الذكاء الاصطناعي. لكن وفي الوقت نفسه، يشعر بعض قادة الصناعة أن هذا لا يكفي. ففي مقابلة مع قناة "سي بي إس نيوز" (CBS News)، دعا الرئيس التنفيذي لشركة "سيلز فورس" (Salesforce)، مارك بينيوف، إلى وضع قانون وطني للبيانات من شأنه تحسين جودة بيانات التدريب.

كما أن الكونغرس يقوم بدوره بالنظر في هذا النهج أيضاً. ففي يونيو/حزيران، كنت جزءاً من فريق عرض قانون "محاسبة الخوارزميات" أمام مجلس النواب الأميركي، وهو قانون يفرض على الشركات مراجعة أنظمة الذكاء الاصطناعي لديها بحثاً عن أي تحيّز محتمل فيها قبل استخدامها في عملياتها في أول خطوة تهدف إلى حوكمة أنظمة الذكاء الاصطناعي. ويتم حالياً حماية تلك الخوارزميات بقوانين الملكية الفكرية، ولكن سيقوم القانون بجعل البرمجية وراء تلك الخوازمية خاضعة لإشراف هيئة تشبه في عملها "هيئة الأغذية والأدوية الأميركية". ففي ظل عدم معرفة كيفية تقييم مدخلات الخوارزميات، لا يمكننا إلا أن نستنتج من النتائج ما إذا كانت أنظمة الذكاء الاصطناعي متحيزة عرقياً. فعلى سبيل المثال، اُكتشف مؤخراً قيام خوارزمية "كومباس" (COMPAS)، والتي تُستخدم على نطاق واسع في نظام العدالة الجنائية في الولايات المتحدة لتقييم معدلات عودة من خرجوا من السجن إلى الإجرام، باستمرار بإعطاء المدعى عليهم السود فترات سجن أطول من نظرائهم البيض.

وتعد التشريعات المقترحة تدخلات مفيدة، ولكنها لا توفر حلاً آنياً لمشكلة تحيز الذكاء الاصطناعي لدينا. وثمة فرصة هنا للشركات التي ترغب في الحصول على أفضلية أن تكون أول من يدخل المكان في تمييز نفسها في السوق باستخدام الذكاء الاصطناعي العادل والدقيق، حيث يمكن لهذه الشركات توظيف تقنيين يمثلون الصالح العام، وهم فرق مؤلفة من علماء الكمبيوتر وعلماء الاجتماع وعلماء الأنثروبولوجيا وعلماء القانون والناشطين، لتطوير استراتيجيات لتطوير بيانات تدريب أكثر عدلاً ودقّة. وتكون هذه الفرق مسؤولة عن إجراء البحوث التي يمكن أن تساعد في إسداء المشورة لمجموعات المسؤولية الاجتماعية للشركات حول كيفية القيام باستثمارات استراتيجية مع مجموعات تعمل على الحد من التعبير عن العنصرية والتمييز الجنسي وكراهية الأجانب في مجتمعنا. ومن شأن هذا أن يقلل من هذه التحيزات التي يتم برمجتها في مجموعات البيانات المستخدمة في التعلم الآلي، وسيؤدي بدوره إلى إنتاج أنظمة أكثر عدلاً ودقة في الذكاء الاصطناعي.

سيتطلب الحد من مشكلة التحيز في الذكاء الاصطناعي وفي بيانات التدريب استثماراً مستداماً متعدد الجوانب في إنشاء مجتمع أكثر عدالة. وعلى الشركات التي تعلن عن هذه القيم حالياً بذل المزيد من الجهد للوقوف وراءها.

اقرا أيضاً:

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

المحتوى محمي