استخدام الذكاء الاصطناعي للحدّ من الانحياز في عملية التوظيف

4 دقائق
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

بإمكان الذكاء الاصطناعي إحداث نتائج هائلة، إما جيدة أو سيئة، مثل أي تقنية جديدة أخرى. ولكن يبدو أن الجمهور يركز بصورة متزايدة على النتائج السيئة، خصوصاً عندما يتعلق الأمر بالانحياز المحتمل في الذكاء الاصطناعي، وهذا الخوف قائم على أسس سليمة وهو موثق جيداً. ولكن ما هو الذكاء الاصطناعي؟ هو محاكاة الآلات للعمليات التي يقوم بها الإنسان. وهذا الخوف من انحياز الذكاء الاصطناعي يتجاهل حقيقة حاسمة، وهي أن المصدر الأول للانحياز في الذكاء الاصطناعي هو السلوك الإنساني الذي يحاكيه، أي مجموعة البيانات المنحازة المستخدمة في تدريب الخوارزمية. ولذلك، إذا كنت لا تحب ما يقوم به الذكاء الاصطناعي، فلا بد أنك لن تحب ما يقوم به البشر لأن الذكاء الاصطناعي يتعلم منهم.

لنحصر تركيزنا على عملية التوظيف، فوضعها الراهن معيب إلى حد كبير، وهو وضع بائس جداً بصراحة، ويعود ذلك إلى ثلاثة أسباب رئيسة.

الانحياز البشري اللاإرادي يجعل عملية التوظيف غير عادلة. تتمثل الطريقة النمطية لمراجعة المتقدمين قبل إجراء مقابلةالعمل بمراجعة الجهة الموظفة لسيرهم الذاتية. وقد بينت عدة دراسات أن هذه العملية تؤدي إلى انحياز لاإرادي كبير ضد النساء والأقليات والموظفين الأكبر سناً.

يتم تجاهل مجموعات واسعة من المتقدمين. لقد أثبتت منصات مثل لينكد إن وغيرها نجاحها لدرجة أنّ قرابة 250 متقدماً وسطياً يتقدمون لأي وظيفة شاغرة عن طريق هذه المنصات. ويترجم ذلك إلى ملايين المتقدمين لبضعة آلاف من الوظائف الشاغرة. ومن البديهي ألا تكون معالجة هذه الطلبات يدوياً ممكنة. ولذلك، تحصر جهات التوظيف مراجعة مجموعة المتقدمين بنسبة 10 إلى 20% منهم، تضم الذين تعتبرهم مرشحين واعدين أكثر، كخريجي الجامعات المنتمية لرابطة اللبلاب مثلاً، والمرشحين الخاملين من الشركات المنافسة، أو برامج إحالة الموظفين. ولكن أتعلم؟ تتمتع أهم الجامعات وبرامج إحالة الموظفين بتنوع أقل من المجموعة الكبرى للمتقدمين الذين يقدمون ملفات سيرهم المهنية.

إن أدوات التوظيف التقليدية منحازة بالفعل. ولكنه أمر مشروع بسبب ثغرة في القانون الأميركي، إذ تبين القوانين الفيدرالية أنه بإمكان أداة التوظيف الانحياز إذا كان ذلك له صلة بالوظيفة المعنية. ويعني تعبير “ذو صلة بالوظيفة” أن الموظفين الناجحين في أحد الأدوار يملكون ميزات معينة. ولكن إذا كان جميع “الموظفين الناجحين” رجالاً بيض نظراً لتاريخ انحياز عملية التوظيف التي يقوم بها البشر، فمن المؤكد أن تقييم عملية التوظيف المرتبط بالوظيفة سينحاز ضد النساء والأقليات لصالح الرجال البيض. ويمكن أن يحالف الحظ امرأة أميركية من أصول أفريقية تخرجت من جامعة لا تنتمي إلى رابطة اللبلاب، فتحصل على منصب في شركة بعد مراجعة ملف سيرتها الذاتية ونجاحه باجتياز الموظف المسؤول عن تقييم المتقدمين، ومن ثم يطلب إليها أن تجري تقييماً منحازاً.

فلا عجب أننا نعاني صعوبة كبيرة في محاولة تنويع قوتنا العاملة. إذ إن النماذج المتبعة اليوم والتي وضعها البشر هي ما أدى إلى النقص الشديد في تنوع القوة العاملة وستستمر في ذلك، وليس الذكاء الاصطناعي.

ينطوي الذكاء الاصطناعي على أعظم فرصة مبشرة للحد من الانحياز في عملية التوظيف لسببين أساسيين:

1. يمكن للذكاء الاصطناعي الحد من الانحياز البشري اللاإرادي. هناك عيوب في كثير من أدوات الذكاء الاصطناعي المستخدمة في عملية التوظيف، ولكن يمكن معالجتها. ويتمثل أحد أوجه جمال الذكاء الاصطناعي في إمكانية تصميمه لتلبية مواصفات مفيدة محددة. وهناك حركة بين مختصي الذكاء الاصطناعي مثل “أوبن أيه آي” (OpenAI) و“معهد مستقبل الحياة” (Future of Life Institute)، تسعى فعلاً لتقديم مجموعة من مبادئ التصميم تهدف لجعل الذكاء الاصطناعي أخلاقياً وعادلاً (أي مفيداً للجميع). وأحد المبادئ الأساسية هو أنه يجب تصميم الذكاء الاصطناعي على نحو يجعله قابلاً للتدقيق ويمنحنا إمكانية إزالة الانحياز في حال وجوده. ويجب أن يعمل تدقيق الذكاء الاصطناعي تماماً كاختبار السلامة للسيارة الجديدة قبل أن يقودها أحد. وإذا لم تلبّ التقنية المعايير فيجب إصلاح عيوبها قبل السماح بإنتاجها.

2. يمكن للذكاء الاصطناعي تقييم مجموعة المرشحين بأكملها بدلاً من إجبار البشر الذين يعملون ضمن إطار زمني محدود على تطبيق عمليات منحازة من أجل تقليص المجموعة منذ البداية. ولن نتمكن من التخلص من الانحياز الذي يتسبب به تقليص المجموعة الأولية، كي يتمكن القائم على عملية التوظيف اليدوية من التعامل معها، إلا عن طريق استخدام عملية مؤتمتة بحق بدءاً من قمة القمع. ومن المروع أن تعترف الشركات اليوم على نحو لا يخلو من الغرابة بأنها تنظر في قسم ضئيل فقط من طلبات ملايين المتقدمين. ويجب أن يعمل أخصائيو التقنية والجهات المشرعة معاً لوضع أدوات وسياسات تجعل مراجعة مجموعة المتقدمين بأكملها أمراً ممكناً وإلزامياً.

بالإضافة إلى ذلك، يجب أن يكون هذا التركيز على عدالة الذكاء الاصطناعي هو ما يجعلنا نحدد قيمة تقييمات ما قبل التعيين باتباع نفس المعايير. قامت لجنة تكافؤ فرص العمل (EEOC) في الولايات المتحدة بكتابة قوانين التوظيف العادل الحالية في سبعينات القرن الماضي، قبل ظهور شبكة الإنترنت العامة وتفجر أعداد الموظفين المتقدمين لكل وظيفة. ولكن لم تتوقع هذه اللجنة التوصل إلى خوارزميات حديثة أقل تحيزاً من البشر وقادرة في نفس الوقت على تقييم مجموعة أكبر وأكثر تنوعاً. ولذلك، يجب علينا تحديث هذه القوانين وتوضيحها من أجل تشجيع تكافؤ الفرص في عمليات التوظيف، والسماح باستخدام أنظمة توظيف خوارزمية تلبي معايير واضحة. وهناك بالفعل بضع حالات أولى لتطبيق هذه المعايير، فقد مررت الجمعية التشريعية لولاية كاليفورنيا قانوناً لاستخدام تقنية غير متحيزة لتعزيز التنوع في عملية التوظيف، كما تستخدم محكمة سان فرانسيسكو العليا تقنية ذكاء اصطناعي تدعى “الحكم الأعمى” في إجراءات العدالة الجنائية.

يجب تطبيق المعايير نفسها على أدوات التوظيف الحالية. واجهت شركة أمازون انتقادات على المستوى الوطني على مدى أشهر بسبب استخدامها خوارزمية توظيف متحيزة للرجال. ولكن اليوم، يسمح القانون لأرباب العمل في الولايات المتحدة باستخدام تقييمات تقليدية متحيزة تمارس التمييز ضد المرأة أو الأقليات. كيف يمكن أن يحدث هذا؟ ربما بسبب عدم إدراك معظمنا أن التقييمات المتحيزة تستخدم بوضوح (وهي قانونية). وإذا كنا سنطالب بالذكاء الاصطناعي غير المتحيز، وهو أمر واجب علينا، فينبغي لنا أيضا أن ندعو إلى إلغاء جميع التقييمات التقليدية المتحيزة.

مستحيل أن نتمكن من تصحيح التحيز البشري، ولكن يبدو جلياً أنه يمكن تمييز التحيز في الذكاء الاصطناعي وتصحيحه. وإذا اتخذنا خطوات حاسمة لمعالجة المخاوف التي تتم إثارتها، فسنتمكن حقاً من تسخير التقنية لتحقيق التنوع في مكان العمل.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .