مراجع انحيازات الخوارزميات Algorithm Bias Auditor

من هو مراجع انحيازات الخوارزميات؟

مراجع انحيازات الخوارزميات (Algorithm Bias Auditor): أحد المسميات الوظيفية التي من المتوقع أن تظهر في مجال الموارد البشرية بين عاميْ 2020 و2030، ويُعنى شاغل هذا المنصب بقيادة فريق من المختصين يسهر على التدقيق في عمل كل خوارزمية تستخدمها الشركة عبر مختلف منشآتها، ويتتبعها ويراقب مدخلاتها وأثرها على الأداء البشري، كما يعمل مع فريق الدعم التكنولوجي لتطوير تطبيقات أعمال جديدة قائمة على الذكاء الاصطناعي أو تحديث التطبيقات الحالية.

أمثلة عن قلق الموظفين بشأن انحيازات الخوارزميات

لتوضيح أهمية هذا المنصب، وجدت بحوث مشتركة أجرتها شركة “أوراكل” (Oracle) وشركة “فيوتشر وورك بليس” عام 2019 حول المواقف تجاه الذكاء الاصطناعي في مكان العمل أن العديد من الأشخاص قلقون بشأن انتهاكات أمن البيانات. فمن بين 8,370 من قادة الموارد البشرية ومدراء التوظيف والعاملين الذين تم استطلاع آرائهم في 10 دول، أفاد 71% أنهم “يقلقون أحياناً على الأقل” من انتهاك سرية البيانات وأكد 38% إنهم “قلقون للغاية” من الشيء نفسه. في الواقع، قال 80% من المشاركين أنه ينبغي لشركاتهم طلب الإذن قبل استخدام الذكاء الاصطناعي لجمع بيانات حولهم.

كما وجد بحث أجرته شركة “لينكد إن” أن 67% من مدراء التوظيف ومسؤولي التوظيف قالوا إن الذكاء الاصطناعي يوفر لهم الوقت عند بحثهم عن مرشحين للوظائف، ولكن هناك أسئلة تُثار في الوقت الحالي حول هذه التقنية واحتمالية انحيازها وعدم دقتها وافتقارها إلى الشفافية، ففي كل مرة يقوم الموظفون بالنقر والإعجاب والمرور على مواقع التواصل الاجتماعي، فهذا يكشف عن اهتماماتهم وتفضيلاتهم وغاياتهم ومواقعهم لأي شخص قادر على جمع هذه البيانات، بما في ذلك موظفي الموارد البشرية؛ ونتيجة لذلك، يزداد وعي الموظفين بالخصوصية ومدى استعدادهم لمشاركة بياناتهم بكل اطمئنان.

اقرأ أيضاً: