تمت عملية الاشتراك بنجاح

إغلاق

عذراً، أنت مشترك مسبقاً بالنشرة البريدية

إغلاق
facebook
twitter
whatsapp
email
linkedin
messenger
يعتبر التحيز الخطيئة الأولى عند تعلم الآلة، إذ هو جزء أصيل في جوهر تعلم الآلة، وذلك لأن النظام يستمد تعليمه من خلال البيانات، ومن ثم فهو مُعرض للإصابة بعدوى التحيزات البشرية التي تمثلها البيانات، فمن المرجح، على سبيل المثال، أن "يتعلم" نظام توظيف قائم على تعلم الآلة ومدرب على نظام العمالة الأميركية الحالية أن المرأة لا تشغل منصب الرئيس التنفيذي إلا فيما ندر.
وقد يكون تنقيح البيانات بشكل دقيق بحيث لا يكتشف النظام أي علاقات خفية أو ضارة أمراً بالغ الصعوبة، وحتى مع توجيه أكبر قدر من العناية قد يجد نظام تعلم الآلة أنماط تحيز على درجة كبيرة من الدقة والتعقيد تجعلها محجوبة عن أنظار المراقب حسن النية. ومن هنا تأتى أهمية تركيز علماء الكمبيوتر وواضعي السياسات وكل من يهتم بتحقيق العدالة الاجتماعية على كيفية خلو الذكاء الاصطناعي من التحيز في الوقت الحالي.
بيد أن طبيعة تعلم الآلة ذاتها قد تُرغمنا على التفكير في العدالة بطرق جديدة ومثمرة، فمن

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الاميركية - 2021

اترك تعليق

قم بـ تسجيل الدخول لتستطيع التعليق
avatar
  شارك  
التنبيه لـ
error: المحتوى محمي !!