بناء ذكاء اصطناعي أخلاقي لإدارة المواهب

6 دقائق
الذكاء الاصطناعي لإدارة المواهب
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

لقد زعزع الذكاء الاصطناعي جميع جوانب حياتنا، من تجارب التسوّق المنسّقة التي أصبحنا نشهدها من شركات مثل “أمازون” و”علي بابا” إلى التوصيات الشخصية التي تستخدمها قنوات مثل “يوتيوب” و”نتفليكس” لتسويق أحدث محتوى تقدّمه. لكن بطرق عديدة، لا يزال الذكاء الاصطناعي في مهده عندما يتعلق الأمر بمكان العمل. وهذا صحيح على نحو خاص عندما نأخذ بعين الاعتبار الطرق التي يبدأ من خلالها بتغيير إدارة المواهب. ولاستخدام تشبيه مألوف: يعتبر الذكاء الاصطناعي في العمل في وضع الطلب الهاتفي. مرحلة الجيل الخامس للأنظمة اللاسلكية (5G WiFi) لم تصل بعد، لكن لا يوجد لدينا شك في أنها ستصل. فهل يمكن استخدام الذكاء الاصطناعي لإدارة المواهب في الشركات؟

من المؤكد أنّ هناك الكثير من الإرباك حول استخدام الذكاء الاصطناعي لإدارة المواهب وما يمكن وما لا يمكن للذكاء الاصطناعي فعله، إضافة إلى وجهات النظر المختلفة حول كيفية تعريفه. وفي حرب استقطاب المواهب، على أي حال، يؤدي الذكاء الاصطناعي دوراً محدداً للغاية، يتمثل في إعطاء المؤسسات تنبؤات أكثر دقة وكفاءة حول سلوكيات المرشح وأدائه المحتمل فيما يتعلق بأنشطة العمل. وعلى عكس طرق التوظيف التقليدية، مثل إحالات الموظفين وفرز السير الذاتية والمقابلات الشخصية، فإنّ الذكاء الاصطناعي قادر على إيجاد أنماط يغفل عنها البشر.

اقرأ أيضاً: تعزيز الثقافة الأخلاقية لدى فريق المبيعات

تستخدم الكثير من أنظمة الذكاء الاصطناعي بشراً حقيقيين كنماذج لما يبدو عليه النجاح في أدوار محددة. ويشار إلى هذه المجموعة من الأفراد على أنها “مجموعة بيانات تدريب“، وغالباً ما تشمل مدراء أو طاقم يُعرفون على أنهم من “أصحاب الأداء المتميز”. تقوم أنظمة الذكاء الاصطناعي بمعالجة ملفات مختلف المتقدمين للوظيفة ومقارنتها بالموظف “النموذجي” الذي صنعت صورته بناءً على مجموعة التدريب. ثم تعطي الشركة تقديراً محتملاً لمدى قرب سمات المرشح للسمات الموجودة في الموظف المثالي.

من الناحية النظرية، يمكن استخدام هذا الطريقة لتحديد الشخص المناسب للمنصب المناسب بشكل أسرع وأكثر كفاءة من ذي قبل. لكن على الأرجح أنك لاحظت أنّ الذكاء الاصطناعي قد أصبح ينطوي على فوائد ومخاطر على حد سواء. إذا كانت مجموعة التدريب متنوعة، واستُخدمت بيانات ديموغرافية غير متحيزة لقياس الناس فيها، وإذا كانت الخوارزميات غير متحيزة، فيمكن لهذه التقنية أن تقلل من الأحكام المسبقة لدى البشر وأن تزيد نطاق التنوع والدمج الاجتماعي والاقتصادي بشكل أفضل مما يمكن لأي بشري فعله. وعلى أي حال، إذا كانت مجموعة التدريب أو البيانات أو كليهما متحيزان، ولم يجرِ تدقيق الخوارزميات بما فيه الكفاية، فلن يكون من الذكاء الاصطناعي إلا أن يفاقم مشكلة التحيز في عملية التوظيف والتجانس في المؤسسات.

يجب علينا توجيه انتباهنا من تطوير أنظمة موارد بشرية أخلاقية أكثر إلى تطوير ذكاء اصطناعي أخلاقي، من أجل تحسين إدارة المواهب بشكل أسرع وتحقيق الاستفادة الكاملة من الطاقة والإمكانات التي يوفرها الذكاء الاصطناعي. وبالطبع، فإنّ إزالة التحيز من الذكاء الاصطناعي ليس بالأمر السهل. بل إنه في واقع الأمر صعب جداً. لكن حجتنا تستند إلى اعتقادنا إلى أنّ ذلك أكثر قابلية للتطبيق مقارنة بإزالة التحيز من البشر أنفسهم.

فعندما يتعلق الأمر بالتعرف على المواهب أو الإمكانات، ما زالت معظم المؤسسات تعتمد على طريقة سير الأمور. ويقضي فريق التوظيف ثوان معدودة في النظر إلى سيرة ذاتية ليقرروا من يريدون “التخلص منه”. كما يطلق مدراء التوظيف أحكاماً سريعة ويدعون ذلك بـ “الحدس” أو يتغاضون عن البيانات الموثقة ويقومون بالتوظيف بناء على الانسجام الثقافي، وتزيد هذه المشكلة سوءاً بعدم توفر مقاييس أداء موضوعية ودقيقة. وعلاوة على ذلك، فقد تبين أنّ تدريب التحيز اللاواعي الذي ينفذه عدد متزايد من الشركات غالباً ما يكون غير فعال وقد يؤدي في بعض الأحيان أن جعل الأمور أكثر سوءاً. في أحوال كثيرة، يركز التدريب كثيراً على التحيز الفردي وبنسبة قليلة على التحيزات الهيكلية التي تقلل مخزون الجماعات غير الممثلة تمثيلاً كافياً.

وعلى الرغم من زعم النقاد أنّ الذكاء الاصطناعي ليس أفضل بكثير، إلا أنهم غالباً ما ينسون أنّ هذه الأنظمة تجسد سلوكياتنا الخاصة. نتسرع دائماً في توجيه اللوم للذكاء الاصطناعي على التنبؤ أنّ الرجال البيض سيحصلون على تقييمات أداء أعلى من مدرائهم (وهم غالباً من الرجال البيض). لكن هذا يحدث نظراً إلى فشلنا في معالجة التحيز في تقييمات الأداء التي تُستخدم غالباً في مجموعات بيانات التدريب. نتفاجأ من أنّ الذكاء الاصطناعي قد يتخذ قرارات توظيف منحازة، لكن لا يضايقنا أننا نعيش في عالم تسيطر فيه التحيزات البشرية على هذه القرارات. انظر فقط إلى “أمازون”. ضجة الانتقادات حول خوارزمية التوظيف المنحازة لديهم تجاهلت الأدلة القوية على أنّ عمليات التوظيف الحالية التي يقودها البشر في معظم المؤسسات هي أسوأ إلى حد لا يمكن استئصاله. وهذا أقرب إلى التعبير عن قلق أكثر تجاه مجموعة صغيرة جداً من الوفيات جرّاء السيارات بلا سائق مقارنة بحالات الوفاة بحوادث الطرق البالغ عددها 1.2 مليون وفاة سنوياً والتي يتسبب بها بشر خاطئون أو ربما متشتتون أو سكارى.

اقرأ أيضاً: هنالك دعم كبير لحركة منع التصرفات غير الأخلاقية في العمل… هل ستتغير المؤسسات بالفعل؟

وفي واقع الأمر، لدينا قدرة أكبر على ضمان كل من الدقة والعدالة في أنظمة الذكاء الاصطناعي مقارنة بما نفعله للتأثير على فريق التوظيف ومدراء التوظيف أو إرشادهم. البشر جيدون جداً في التعلم لكنهم سيئون جداً في نبذ طباعهم. غالباً ما تكون الآليات المعرفية التي تجعلنا متحيزين هي نفس الأدوات التي نستخدمها للبقاء في حياتنا اليومية. العالم أعقد بكثير من أن نستطيع فهمه بصورة منطقية ومدروسة طوال الوقت. وإذا فعلنا ذلك، فسنكون مغمورين بفيض من المعلومات وغير قادرين على اتخاذ قرارات بسيطة، مثل شراء كوب قهوة (ففي نهاية المطاف، لماذا يتعين علينا أن نثق ببائع القهوة إذا كنا لا نعرفه؟). ولهذا فمن الأسهل التأكد من عدم تحيز بياناتنا ومجموعات التدريب مقارنة بتغيير سلوكيات سامي أو سالي، اللذين لا نستطيع إزالة التحيز منهما أو استخراج نسخة مطبوعة من المتغيرات التي تؤثر على قراراتهما. وبشكل أساسي، فإنّ تفكيك خوارزميات الذكاء الاصطناعي أسهل من فهم العقل البشري وتغييره.

استخدام الذكاء الاصطناعي لإدارة المواهب

ولفعل ذلك، يتعين على المؤسسات التي تستخدم الذكاء الاصطناعي لإدارة المواهب، في أي مرحلة، أن تبدأ باتخاذ الخطوات التالية.

1) تثقيف المرشحين والحصول على إذنهم

 اطلب من الموظفين المحتملين المشاركة أو تقديم بياناتهم الشخصية للشركة، مع العلم أنّ أنظمة الذكاء الاصطناعي ستقوم بتحليلها وتخزينها واستخدامها لاتخاذ القرارات المتعلقة بعمل الموارد البشرية. وكن جاهزاً للإجابة عن الأسئلة بماذا ومن وكيف ولماذا. من غير الأخلاقي بالنسبة لأنظمة الذكاء الاصطناعي الاعتماد على نماذج الصندوق الأسود. إذا كان أحد المرشحين يتمتع بسمة ترتبط بالنجاح في دور ما، يجب على المؤسسة ألا تفهم سبب ذلك فحسب، بل أن تكون قادرة على تفسير العلاقات السببية. وباختصار، يتعين تصميم أنظمة الذكاء الاصطناعي للتنبؤ بـ “السببية” وتفسيرها، وليس الاكتفاء بالبحث عن “علاقة”. كما أنّ عليك أن تتأكد من الحفاظ على سرية هوية المرشحين لحماية بياناتهم الشخصية والامتثال مع التشريعات العامة لحماية البيانات (GDPR) وقوانين الخصوصية في كاليفورنيا، والقوانين المشابهة.

2) الاستثمار في الأنظمة التي تحسّن العدالة والدقة

 منذ زمن طويل، أشار الخبراء في علم النفس التنظيمي إلى انخفاض في الدقة عند تحسين العدالة في تقييمات المرشحين. فمثلاً، تشير الكثير من البحوث الأكاديمية إلى أنه بينما تعتبر اختبارات القدرة المعرفية عامل تنبؤ ثابت على الأداء الوظيفي، وخصوصاً في الوظائف بالغة التعقيد، فإنّ نشرها له آثار عكسية على المجموعات الممثلة تمثيلاً غير كاف، وخصوصاً الأفراد ذوي الوضع الاجتماعي والاقتصادي المتدني. وهذا يعني أنّ الشركات المهتمة في تعزيز التنوع وخلق ثقافة شمولية غالباً ما تقلل من أهمية الاختبارات المعرفية التقليدية عند توظيف عمال جدد لضمان عدم إلحاق الضرر بالمرشحين المتنوعين في هذه الأثناء. ويُعرف ذلك بمفاضلة العدالة والدقة.

اقرأ أيضاً: ما هي المؤشرات الأولى لتدريس “التربية الأخلاقية” كأول تجربة عربية؟

وعلى أي حال، تستند هذه المفاضلة إلى أساليب من خمسين عاماً مضت، قبل اختراع نماذج الذكاء الاصطناعي التي يمكنها التعامل مع البيانات بطريقة مختلفة جداً عن أي نماذج تقليدية. وتوجد أدلة متزايدة على أنّ باستطاعة الذكاء الاصطناعي التغلب على هذه المفاضلة من خلال نشر خوارزميات تسجيل تتسم بديناميكية وطابع شخصي أكبر، وتكون حساسة للدقة بنفس قدر حساسيتها للعدالة، ما يحسن مزيج الاثنين. وبالتالي، لا يوجد عذر لمطوري الذكاء الاصطناعي يبرر عدم قيامهم بهذا الأمر. وعلاوة على ذلك، نظراً لوجود هذه الأنظمة الآن، يتعين علينا السؤال فيما إذا كان ينبغي الاستمرار في الاستخدام الواسع للتقييمات المعرفية التقليدية، المعروفة بامتلاك آثار عكسية على الأقليات، دون نوع من التقليل من التحيز.

3) تطوير أنظمة مفتوحة المصدر وعمليات مراجعة من أطراف خارجية

 مساءلة الشركات والمطورين من خلال السماح لآخرين بمراجعة الأدوات المستخدمة لتحليل تطبيقاتهم. ويتمثل أحد الحلول في فتح المصدر لجوانب تكنولوجيا الذكاء الاصطناعي المهمة غير مسجّلة الملكية، التي تستخدمها المؤسسة. وبالنسبة للمكوّنات مسجّلة الملكية، فإنّ مراجعات الأطراف الخارجية التي يعقدها خبراء موثوقون في المجال تمثل أداة تستطيع الشركات استخدامها لتعريف الجمهور بكيفية تقليلها من التحيز.

4) اتباع القوانين نفسها لاستخدام الذكاء الاصطناعي لإدارة المواهب بالإضافة إلى ممارسات جمع البيانات واستخدامها، المستخدمة في التوظيف التقليدي

أي بيانات يتعين عدم جمعها أو تضمينها في عملية توظيف تقليدية لأسباب قانونية أو أخلاقية يتعين أن لا تستخدمها أنظمة الذكاء الاصطناعي. كما يتعين عدم إدخال بيانات خاصة حول الحالات الجسدية أو العقلية أو العاطفية أو معلومات جينية أو معلومات عن الإدمان أبداً.

إذا قامت المؤسسات بالتعامل مع هذه القضايا، فإننا نعتقد أنّ الذكاء الاصطناعي الأخلاقي يمكن أن يحسّن المؤسسات على نحو كبير ليس فقط من خلال تقليص التحيز في عملية التوظيف، إنما أيضاً من خلال تحسين الجدارة وجعل العلاقة بين الموهبة والجهد ونجاح الموظف أكبر مما كانت عليه في السابق. كما أنّ ذلك سيعود بالفائدة على الاقتصاد العالمي. وبمجرد أن نقلل التحيز، ستنمو دائرة المرشحين لدينا لتتجاوز إحالات الموظفين وخريجي الجامعات المرموقة. وسيكون للأشخاص من مجموعة واسعة من الخلفيات الاقتصادية والاجتماعية وصول أكبر إلى وظائف أفضل، ما يمكن أن يساعد في خلق التوازن والبدء في معالجة التباين بين مختلف الطبقات.

ولتحقيق ذلك كله، يجب على الأعمال أن تقوم باستثمارات مناسبة من أجل استخدام الذكاء الاصطناعي لإدارة المواهب بشكل صحيح، ليس فقط على صعيد تكنولوجيات الذكاء الاصطناعي المتطورة، إنما أيضاً (وخصوصاً) على صعيد الخبرة الإنسانية، أي الأشخاص الذين يدركون كيفية تعزيز الفوائد التي تقدمها هذه التكنولوجيات الحديثة بالتزامن مع تقليل المخاطر والعيوب المحتملة. وفي مختلف جوانب الأداء، فمن المرجح أنّ توليفة من الذكاء الاصطناعي والبشري ستحقق نتائج أفضل مما يحققه أحدهما لوحده. يتعين النظر إلى الذكاء الاصطناعي الأخلاقي على أداة يمكننا استخدامها لمكافحة انحيازاتنا، وليس كحل أخير.

اقرأ أيضاً: بحث: الجانب السيئ من محاولة الظهور بمظهر أخلاقي في العمل

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .