فتح عن طريق التطبيق

تمت عملية الاشتراك بنجاح

إغلاق

عذراً، أنت مشترك مسبقاً بالنشرة البريدية

إغلاق
استكشف باقات مجرة

خدمة البحث مدعومة بتقنيات

facebook
twitter
whatsapp
email
linkedin
messenger
يجب أن تراعي أي دراسة للتحيز ضد المرأة في مجال الذكاء الاصطناعي أن أوجه التحيز هذه تنشأ أساساً من أوجه التحيز البشرية المتأصلة، وبالتالي فإن النماذج والأنظمة التي نبتكرها وندربها ما هي إلا انعكاس لنا نحن. فكيف يمكن معالجة مشكلة التحيز ضد المرأة بشكل جذري؟
ليس من المستغرب أن نجد أن الذكاء الاصطناعي يتعلم التحيز بين الجنسين من البشر. على سبيل المثال: ثبت أن معالجة اللغات الطبيعية (NLP) – وهي أحد المكونات الحاسمة لأنظمة الذكاء الاصطناعي الشائعة مثل "أليكسا" (Alexa) التي تمتلكها شركة "أمازون"، و"سيري" التي تمتلكها شركة "آبل" وغيرهما من الأنظمة – تعكس أوجه تحيز ضد المرأة، وهذه ليست بحادثة فردية. فقد كان هناك الكثير من الحالات البارزة للتحيز ضد المرأة، بما في ذلك أنظمة رؤية حاسوبية مخصصة للتعرف على الجنسين أفادت التقارير بأنها ترتكب الأخطاء بمعدلات أكبر عند التعرف على السيدات، خاصة ذوات البشرة السمراء. ومن أجل إنتاج تكنولوجيا أكثر إنصافاً، يجب تضافر جهود الباحثين وفرق تعلم الآلة على مستوى الصناعة بأكملها لإصلاح هذا الخلل. ولحسن الحظ، فقد بدأنا نرى أعمالاً جديدة تدرس كيفية تحقيق هذه الغاية.
اقرأ أيضاً:
look

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الاميركية 2022

error: المحتوى محمي !!