content_cookies111:string(2009) "{"id":147621,"content_cookies":null,"user_header":{"SERVER_SOFTWARE":"Apache\/2.4.52 (Debian)","REQUEST_URI":"\/%D8%A7%D9%84%D8%AA%D8%AD%D9%8A%D8%B2-%D9%81%D9%8A-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A\/","REDIRECT_W3TC_SSL":"_ssl","REDIRECT_W3TC_ENC":"_gzip","REDIRECT_STATUS":"200","W3TC_SSL":"_ssl","W3TC_ENC":"_gzip","HTTP_HOST":"hbrarabic.com","HTTP_ACCEPT_ENCODING":"gzip","HTTP_X_FORWARDED_FOR":"3.235.188.113","HTTP_CF_RAY":"80a37955e8990735-FRA","HTTP_X_FORWARDED_PROTO":"https","HTTP_CF_VISITOR":"{\\\"scheme\\\":\\\"https\\\"}","HTTP_USER_AGENT":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","HTTP_ACCEPT":"text\/html,application\/xhtml+xml,application\/xml;q=0.9,*\/*;q=0.8","HTTP_ACCEPT_LANGUAGE":"en-US,en;q=0.5","HTTP_CDN_LOOP":"cloudflare","HTTP_CF_CONNECTING_IP":"3.235.188.113","HTTP_CF_IPCOUNTRY":"US","HTTP_X_FORWARDED_HOST":"hbrarabic.com","HTTP_X_FORWARDED_SERVER":"hbrarabic.com","HTTP_CONNECTION":"Keep-Alive","PATH":"\/usr\/local\/sbin:\/usr\/local\/bin:\/usr\/sbin:\/usr\/bin:\/sbin:\/bin","SERVER_SIGNATURE":"Apache\/2.4.52 (Debian) Server at hbrarabic.com Port 80<\/address>\n","SERVER_NAME":"hbrarabic.com","SERVER_ADDR":"172.18.0.3","SERVER_PORT":"80","REMOTE_ADDR":"162.158.86.179","DOCUMENT_ROOT":"\/var\/www\/html","REQUEST_SCHEME":"http","CONTEXT_PREFIX":"","CONTEXT_DOCUMENT_ROOT":"\/var\/www\/html","SERVER_ADMIN":"[email protected]","SCRIPT_FILENAME":"\/var\/www\/html\/index.php","REMOTE_PORT":"43408","REDIRECT_URL":"\/\u0627\u0644\u062a\u062d\u064a\u0632-\u0641\u064a-\u0627\u0644\u0630\u0643\u0627\u0621-\u0627\u0644\u0627\u0635\u0637\u0646\u0627\u0639\u064a\/","GATEWAY_INTERFACE":"CGI\/1.1","SERVER_PROTOCOL":"HTTP\/1.1","REQUEST_METHOD":"GET","QUERY_STRING":"","SCRIPT_NAME":"\/index.php","PHP_SELF":"\/index.php","REQUEST_TIME_FLOAT":1695311532.5426,"REQUEST_TIME":1695311532,"argv":[],"argc":"0","HTTPS":"on"},"user_ip":"3.235.188.113","user_agent":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)"}"
في أواخر عام 2018، أوقفت أمازون استخدام نظام توظيفها القائم على الذكاء الاصطناعي بعدما اكتشفت أنه كان متحيزاً ضد النساء. فوفقاً لمصادر مطلعة على مشكلة التحيز في الذكاء الاصطناعي، كان النظام يعطي تصنيفات منخفضة للسير المهنية التي تحوي كلمتي "امرأة" أو "نساء" في طلبات التقدّم للعمل في مناصب فنية، فضلاً عن قيامه بالاستبعاد الكامل لجامعتين تقدمان برامجهما الدراسية للإناث فقط.
ولا تعتبر هذه المشكلة بالجديدة، ففي عام 2003، أجرى "المكتب الوطني للنمو الاقتصادي" (NBER) تجربة حاول فيها تتبع وجود أي تحيز عنصري في عمليات التوظيف. وخلال الاختبار، أرسل المكتب مجموعتين متطابقتين من السير الذاتية الوهمية، فيما يتعلق بمعلومات التعليم والخبرة، لكن كان للأولى أسماء توحي بأن أصحابها من أصول أميركية أفريقية، في حين كان للثانية أسماء قوقازية. ووجد المكتب حصول "المتقدمين" من ذوي الأسماء القوقازية على دعوات للمقابلة أكثر بنسبة 50% من نظرائهم الأميركيين الأفريقيين. ومما سبق، يمكننا طرح السؤال التالي: كيف يمكننا إنشاء ممارسات توظيف أكثر عدالة وإنصاف؟ كان يُفترض بأنظمة التوظيف المعتمدة على الخوارزميات أن تكون هي الحل، على اعتبار أنها، ووفقاً للمدافعين عنها، تزيل التحيز البشري لأن قراراتها تكون مستندة إلى تنبؤات إحصائية حول المرشحين ذوي الأرجحية أن يكونوا "مناسبين".
إلا أن مناصري ذاك الحل لم يأخذوا في الاعتبار كيفية عمل هذه الخوارزميات فعلياً. ففي حالة شركة أمازون، تم تدريب الخوارزميات، المسؤولة عن أتمتة عمليات التوظيف، لتختار أفضل المرشحين وفقاً لكلمات رئيسة تُذكر غالباً ضمن أفضل السير الذاتية. ويبدو هذا منطقياً، إلا أنه يعطي في الوقت ذاته الفرصة لتسلل التحيز، إذ لا يمكن تدريب الخوارزميات على فهم السياق الاجتماعي. ففي حالة التوظيف، غالباً ما تلعب سياسة مكان العمل دوراً في تقييمات الأداء، إذ يمكن أن يتم تقييم الموظفين، على سبيل المثال، على أنهم "ذوي أداء أفضل" لقرابتهم لمسؤول تنفيذي أو لأقدميتهم أو لوجودهم في نفس المجموعات الاجتماعية الخاصة بمدرائهم. لكن لا يمكن رؤية أي مما سبق على نماذج تقييم الموظف التي تم استخدامها لتدريب آلات التوظيف الآلية تلك، حيث يقوم علماء الكمبيوتر بكل ببساطة بوضع السير الذاتية للموظفين ذوي الأداء الأعلى في كل منصب في تلك الآلات. ومن الواضح أن تلك السير لا تُظهر الصورة كاملة، بل تؤكد فقط الوضع الراهن وجميع التحيزات الكامنة فيه.
ولهذا تقول عالمة البيانات كاثي أونيل أن النماذج الإحصائية التي تنتجها أنظمة اتخاذ القرارات الآلية هي مجرد آراء مكتوبة في سطر برمجي، حيث تقول أنه لا ينبغي علينا الافتراض بأن مجموعات بيانات التدريب دقيقة أو غير متحيزة وذلك نظراً إلى أنها مبرمجة وفق تحيزات المبرمجين (وهم ذكور بيض إلى حد كبير). وهذا ما تسميه الباحثة القانونية رشيدة ريتشاردسون بالبيانات الملوثة.
لكن لماذا يعتبر ما سبق خطيراً للغاية؟ يعود السبب في ذلك إلى أن القرارات المتخذة باستخدام البيانات الملوثة تعود مرة أخرى إلى مجموعات البيانات التدريبية ثم تستخدم مرة ثانية لتقييم المعلومات الجديدة، الأمر الذي يمكن أن يتسبب في إنشاء حلقة تغذية مرتدة سامة تستمر فيها القرارات القائمة على التحيزات التاريخية بالحدوث إلى الأبد.
كيف يمكن للشركات الحد من التحيز في بيانات التدريب؟
كما أن الكونغرس يقوم بدوره بالنظر في هذا النهج أيضاً. ففي يونيو/حزيران، كنت جزءاً من فريق عرض قانون "محاسبة الخوارزميات" أمام مجلس النواب الأميركي، وهو قانون يفرض على الشركات مراجعة أنظمة الذكاء الاصطناعي لديها بحثاً عن أي تحيّز محتمل فيها قبل استخدامها في عملياتها في أول خطوة تهدف إلى حوكمة أنظمة الذكاء الاصطناعي. ويتم حالياً حماية تلك الخوارزميات بقوانين الملكية الفكرية، ولكن سيقوم القانون بجعل البرمجية وراء تلك الخوازمية خاضعة لإشراف هيئة تشبه في عملها "هيئة الأغذية والأدوية الأميركية". ففي ظل عدم معرفة كيفية تقييم مدخلات الخوارزميات، لا يمكننا إلا أن نستنتج من النتائج ما إذا كانت أنظمة الذكاء الاصطناعي متحيزة عرقياً. فعلى سبيل المثال، اُكتشف مؤخراً قيام خوارزمية "كومباس" (COMPAS)، والتي تُستخدم على نطاق واسع في نظام العدالة الجنائية في الولايات المتحدة لتقييم معدلات عودة من خرجوا من السجن إلى الإجرام، باستمرار بإعطاء المدعى عليهم السود فترات سجن أطول من نظرائهم البيض.
وتعد التشريعات المقترحة تدخلات مفيدة، ولكنها لا توفر حلاً آنياً لمشكلة تحيز الذكاء الاصطناعي لدينا. وثمة فرصة هنا للشركات التي ترغب في الحصول على أفضلية أن تكون أول من يدخل المكان في تمييز نفسها في السوق باستخدام الذكاء الاصطناعي العادل والدقيق، حيث يمكن لهذه الشركات توظيف تقنيين يمثلون الصالح العام، وهم فرق مؤلفة من علماء الكمبيوتر وعلماء الاجتماع وعلماء الأنثروبولوجيا وعلماء القانون والناشطين، لتطوير استراتيجيات لتطوير بيانات تدريب أكثر عدلاً ودقّة. وتكون هذه الفرق مسؤولة عن إجراء البحوث التي يمكن أن تساعد في إسداء المشورة لمجموعات المسؤولية الاجتماعية للشركات حول كيفية القيام باستثمارات استراتيجية مع مجموعات تعمل على الحد من التعبير عن العنصرية والتمييز الجنسي وكراهية الأجانب في مجتمعنا. ومن شأن هذا أن يقلل من هذه التحيزات التي يتم برمجتها في مجموعات البيانات المستخدمة في التعلم الآلي، وسيؤدي بدوره إلى إنتاج أنظمة أكثر عدلاً ودقة في الذكاء الاصطناعي.
سيتطلب الحد من مشكلة التحيز في الذكاء الاصطناعي وفي بيانات التدريب استثماراً مستداماً متعدد الجوانب في إنشاء مجتمع أكثر عدالة. وعلى الشركات التي تعلن عن هذه القيم حالياً بذل المزيد من الجهد للوقوف وراءها.
تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو
الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص
المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ
نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.
جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية
2023 .
آخر التقارير الخاصة من شركة الهيئة السعودية للبيانات والذكاء الاصطناعي
نستخدم ملفات تعريف الارتباط لتحسين تجربتك، استمرار استخدامك للموقع يعني موافقتك على ذلك. سياسة الخصوصيةأوافقX
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.