تمت عملية الاشتراك بنجاح

إغلاق

عذراً، أنت مشترك مسبقاً بالنشرة البريدية

إغلاق
facebook
twitter
whatsapp
email
linkedin
messenger
يجب أن تراعي أي دراسة للتحيز ضد المرأة في مجال الذكاء الاصطناعي أن أوجه التحيز هذه تنشأ أساساً من أوجه التحيز البشرية المتأصلة، وبالتالي فإن النماذج والأنظمة التي نبتكرها وندربها ما هي إلا انعكاس لنا نحن. فكيف يمكن معالجة مشكلة التحيز ضد المرأة بشكل جذري؟
إعلان: لا تدع حائط الدفع يفصلك عن أهم المهارات والخبرات الإدارية. استفد اليوم من الاشتراك الترحيبي بدءاً من 30 ريال/درهم (8 دولار).

ليس من المستغرب أن نجد أن الذكاء الاصطناعي يتعلم التحيز بين الجنسين من البشر. على سبيل المثال: ثبت أن معالجة اللغات الطبيعية (NLP) – وهي أحد المكونات الحاسمة لأنظمة الذكاء الاصطناعي الشائعة مثل "أليكسا" (Alexa) التي تمتلكها شركة "أمازون"، و"سيري" التي تمتلكها شركة "آبل" وغيرهما من الأنظمة – تعكس أوجه تحيز ضد المرأة، وهذه ليست بحادثة فردية. فقد كان هناك الكثير من الحالات البارزة للتحيز ضد المرأة، بما في ذلك أنظمة رؤية حاسوبية مخصصة للتعرف على الجنسين أفادت التقارير بأنها ترتكب الأخطاء بمعدلات أكبر عند التعرف على السيدات، خاصة ذوات البشرة السمراء. ومن أجل إنتاج تكنولوجيا أكثر إنصافاً، يجب تضافر جهود الباحثين وفرق تعلم الآلة على مستوى الصناعة بأكملها لإصلاح هذا الخلل. ولحسن الحظ، فقد بدأنا نرى أعمالاً جديدة تدرس كيفية تحقيق هذه

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الاميركية - 2021

اترك تعليق

قم بـ تسجيل الدخول لتستطيع التعليق
avatar
  شارك  
التنبيه لـ
error: المحتوى محمي !!