تمت عملية الاشتراك بنجاح

إغلاق

عذراً، أنت مشترك مسبقاً بالنشرة البريدية

إغلاق
facebook
twitter
whatsapp
email
linkedin
messenger
وثقت أبحاث عديدة التحيزات البشرية: من اختبارات "الارتباط الضمني" التي تُبرز تحيزات قد لا نكون على دراية بها، إلى التجارب الميدانية التي توضح مقدار تأثير هذه التحيزات على النتائج. وبدأ المجتمع على مدار الأعوام القليلة الماضية يعاني من قدرة هذه التحيزات البشرية على اختراق أنظمة الذكاء الاصطناعي ليتسبب في تقديم نتائج غير موثوقة. ويعتبر إدراك الشركات التي تحاول نشر أنظمة الذكاء الاصطناعي في جميع عملياتها لتلك المخاطر أمراً مهماً ويمثل أولوية ملحة.
ولا تعتبر المشكلة بالجديدة، ففي عام 1988، وجدت لجنة بريطانية للمساواة العرقية أن كُلية طبية بريطانية مذنبة بالتمييز. وكان المتهم هنا هو برنامج الكمبيوتر الذي استُخدم لتحديد المتقدمين الذين ستتم دعوتهم لإجراء المقابلات. وكان البرنامج متحيزاً بشكل كبير ضد النساء والأشخاص ذوي الأسماء غير الأوروبية. لكن تم لاحقاً تعديل الخوارزمية لتصبح مطابقة لقرارات القبول البشري، الأمر الذي قدّم دقة قاربت 90% أو 95%، فضلاً عن أنه بات لدى تلك

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الاميركية - 2021

اترك تعليق

قم بـ تسجيل الدخول لتستطيع التعليق
avatar
  شارك  
التنبيه لـ
error: المحتوى محمي !!