تمت عملية الاشتراك بنجاح

إغلاق

عذراً، أنت مشترك مسبقاً بالنشرة البريدية

إغلاق
اشترك

الاستمرار بالحساب الحالي

سجل الدخول الآن للاستماع الى المقال
وثقت أبحاث عديدة التحيزات البشرية: من اختبارات "الارتباط الضمني" التي تُبرز تحيزات قد لا نكون على دراية بها، إلى التجارب الميدانية التي توضح مقدار تأثير هذه التحيزات على النتائج. وبدأ المجتمع على مدار الأعوام القليلة الماضية يعاني من قدرة هذه التحيزات البشرية على اختراق أنظمة الذكاء الاصطناعي ليتسبب في تقديم نتائج غير موثوقة. ويعتبر إدراك الشركات التي تحاول نشر أنظمة الذكاء الاصطناعي في جميع عملياتها لتلك المخاطر أمراً مهماً ويمثل أولوية ملحة.
ولا تعتبر المشكلة بالجديدة، ففي عام 1988، وجدت لجنة بريطانية للمساواة العرقية أن كُلية طبية بريطانية مذنبة بالتمييز. وكان المتهم هنا هو برنامج الكمبيوتر الذي استُخدم لتحديد المتقدمين الذين ستتم دعوتهم لإجراء المقابلات. وكان البرنامج متحيزاً بشكل كبير ضد النساء والأشخاص ذوي الأسماء غير الأوروبية. لكن تم لاحقاً تعديل الخوارزمية لتصبح مطابقة لقرارات القبول البشري، الأمر الذي
look

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الاميركية 2022