وثقت أبحاث عديدة التحيزات البشرية: من اختبارات "الارتباط الضمني" التي تُبرز تحيزات قد لا نكون على دراية بها، إلى التجارب الميدانية التي توضح مقدار تأثير هذه التحيزات على النتائج. وبدأ المجتمع على مدار الأعوام القليلة الماضية يعاني من قدرة هذه التحيزات البشرية على اختراق أنظمة الذكاء الاصطناعي ليتسبب في تقديم نتائج غير موثوقة. ويعتبر إدراك الشركات التي تحاول نشر أنظمة الذكاء الاصطناعي في جميع عملياتها لتلك المخاطر أمراً مهماً ويمثل أولوية ملحة.
ولا تعتبر المشكلة بالجديدة، ففي عام 1988، وجدت لجنة بريطانية للمساواة العرقية أن كُلية طبية بريطانية مذنبة بالتمييز. وكان المتهم هنا هو برنامج الكمبيوتر الذي استُخدم لتحديد المتقدمين الذين ستتم دعوتهم لإجراء المقابلات. وكان البرنامج متحيزاً بشكل كبير ضد النساء والأشخاص ذوي الأسماء غير الأوروبية. لكن تم لاحقاً تعديل الخوارزمية لتصبح مطابقة لقرارات القبول البشري، الأمر الذي قدّم دقة قاربت 90% أو 95%، فضلاً عن أنه بات لدى تلك الكلية نسب قبول طلاب غير أوروبيين أعلى من معظم كليات الطب الأخرى في لندن. لم يعالج استخدام خوارزمية عملية اتخاذ القرارات البشرية المتحيزة، لكن لن تحل العودة إلى البشر في اتخاذ القرارات المشكلة أيضاً.
ولا نزال نواجه نفس التحدي على الرغم من التطور والتحسّن الذي مرت به الخوارزميات على مدار ثلاثين عاماً. ويمكن أن يساعد الذكاء الاصطناعي في تحديد تأثير التحيزات البشرية وتقليله، إلا أنه قد يتسبب أيضاً في زيادة المشكلة سوءاً عبر تضخيمه للتحيز ونشره على نطاق أوسع ضمن مجالات أكثر حساسية. فعلى سبيل المثال، وجد موقع الصحافة الاستقصائية "برو ببليكا" (ProPublica) أن خوارزمية العدالة الجنائية المستخدمة في منطقة "بروارد" في فلوريدا وصفت المتهمين الأميركيين من أصل إفريقي بأنهم يشكلون "خطراً كبيراً" بمعدل الضعف مقارنةً بالمدعى عليهم البيض. كما وجدت أبحاث أخرى أن تدريب نماذج معالجة اللغة الطبيعية على المقالات الإخبارية يمكن أن يدفعهم إلى إظهار القوالب النمطية الجنسانية.
ويمكن أن يزحف التحيز إلى الخوارزميات بعدة طرق، إذ تتعلم أنظمة الذكاء الاصطناعي اتخاذ القرارات بناء على بيانات التدريب، والتي يمكن أن تشمل قرارات بشرية متحيزة أو تعكس عدم المساواة التاريخي أو الاجتماعي، حتى إذا تمت إزالة المتغيرات الحساسة مثل الجنس أو العرق أو الميل الجنسي. فعلى سبيل المثال، توقفت أمازون عن استخدام خوارزمية توظيف بعد أن وجدت أنها تفضّل متقدمين استناداً إلى كلمات مثل "نفّذ" أو "طبّق" والتي كان استخدامها أكثر شيوعاً لدى الرجال. وهناك مصدر آخر للتحيز الخاطئ متمثّل في العينات نفسها، إذ قد تكون العينات المستخدمة بهدف تدريب الخوارزمية إما مفرطة التمثيل أو ناقصة التمثيل. فعلى سبيل المثال، وجدت جوي بولامويني خلال عملها مع تيمنيت غيبرو في معهد ماساتشوستس للتكنولوجيا (إم آي تي) أن لدى تقنيات تحليل الوجه معدلات خطأ أعلى ضد الأقليات، وخاصة النساء منهم، في سبب يرجع على الأرجح إلى بيانات التدريب التي لم تُدرج تلك الفئات بالشكل الكافي.
ونعتبر بدورنا مسؤولون عن ذاك التحيّز، فهو يؤلم أولئك الذين يتعرضون للتمييز، بطبيعة الحال، ويضر أيضاً البقية بتقليل قدرة الناس على المشاركة في الاقتصاد والمجتمع. كما أنه يقلل من إمكانات الذكاء الاصطناعي في العمل والمجتمع من خلال تشجيع عدم الثقة فيه والنتائج المشوهة التي تتحقق بسببه. ويحتاج قادة الأعمال والمؤسسات التنظيمية إلى التأكد من أن أنظمة الذكاء الاصطناعي التي يستخدمونها تُحسن عملية صنع القرار الإنساني، وأن عليهم مسؤولية تشجيع التقدم في الأبحاث والمعايير التي تقلل من التحيز في الذكاء الاصطناعي.
ولدى تأمل الأبحاث الأكاديمية المتزايدة فيما يتعلق بتحيز الذكاء الاصطناعي سنجد أنفسنا أمام أمران بحاجة إلى علاج. أولاً، يجب أن نستفيد بطريقة مسؤولة من الطرق العديدة التي يمكن فيها للذكاء الاصطناعي تحسين عملية اتخاذ القرار البشري التقليدية. وتتجاهل أنظمة تعلم الآلة (في البيانات المتاحة لها) المتغيرات التي لا تتنبأ بالنتائج بدقة، على عكس البشر والذين قد يكذبون حيال العوامل التي جعلتهم مثلاً يعينون أو يتجاهلون مرشحاً معيناً لوظيفة ما، أو حتى لا يدركونها. كما قد يكون من الأسهل أيضاً سبر الخوارزميات بحثاً عن التحيز والذي قد يكشف عن تحيزات بشرية مرّت دون أن يلاحظها أو يتطرق إليها أحد (ويبقى الدماغ البشري المكان الأكثر غموضاً على الرغم من "العمق" المحتمل لنماذج التعلّم العميق). وأخيراً، قد يفيد استخدام الذكاء الاصطناعي في تحسين عملية صنع القرار للمجموعات المحرومة تقليدياً، كما يسميها الباحثون جون كلاينبرغ وسنديل موليناثان وآخرون "بفوائد متباينة من التنبؤ المحسن".
أما الضرورة الثانية فهي تسريع التقدم الذي شهدناه في معالجة التحيز في الذكاء الاصطناعي. ولا توجد حلول سريعة هنا. وفي الواقع، يعتبر فهم "الإنصاف" وقياسه واحداً من أكثر الخطوات تعقيداً، على الرغم من أنه الأكثر وضوحاً. وطور الباحثون طرقاً تقنية لتحديد الإنصاف، مثل اشتراط أن تكون للنماذج قيمة تنبؤية متساوية عبر المجموعات أو تتطلب أن تكون للنماذج الإيجابية الخاطئة نفسها والمعدلات السلبية الكاذبة نفسها عبر المجموعات. ومع ذلك، يؤدي هذا إلى تحد كبير يتمثل بأنه لا يمكن في العادة تلبية تعريفات الإنصاف المختلفة كلها في وقت واحد.
إلا أنه حتى مع تطور تعاريف ومقاييس الإنصاف، أحرز الباحثون أيضاً تقدماً في مجموعة واسعة من التقنيات التي تضمن أن تقوم أنظمة الذكاء الاصطناعي بتلبيتها، من خلال معالجة البيانات مسبقاً، أو تغيير قرارات النظام بعد ذلك، أو دمج تعريفات الإنصاف في عملية التدريب نفسها. ومن إحدى الطرق الواعدة هي "الإنصاف المضاد للواقع"، الذي يضمن أن تكون قرارات النموذج هي نفسها في عالم مضاد حيث يتم تغيير السمات التي تعتبر حساسة، مثل العرق أو الجنس أو التوجه الجنسي. حتى أن سيلفيا تشيابا من "ديب مايند تكنولوجيز" (DeepMind) طورت منهجاً محدداً للمسار تجاه الإنصاف المضاد يمكن أن يتعامل مع الحالات المعقدة حيث تعتبر بعض المسارات التي تؤثر بها السمات الحساسة على النتائج عادلة، بينما تعتبر التأثيرات الأخرى غير عادلة. فعلى سبيل المثال، يمكن استخدام النموذج للمساعدة في ضمان عدم تأثر القبول في قسم معين في إحدى الجامعات بجنس مقدم الطلب بينما يحتمل أن يسمح معدل القبول العام للجامعة بالتباين حسب الجنس إذا، على سبيل المثال، تميل الطالبات إلى التقدم بطلب للحصول على المزيد الإدارات التنافسية.
وستقدّم هذه التحسينات الكثير من المساعدة، لكن تتطلب التحديات الأخرى ما هو أكثر من الحلول التقنية، بما في ذلك كيفية تحديد متى يكون النظام منصفاً كفاية لتعميمه، وفي أي حالات يجب أن يكون اتخاذ القرار الآلي بالكامل مسموحاً به. وتتطلب هذه الأسئلة وجهات نظر متعددة التخصصات من علماء الأخلاق وعلماء الاجتماع وغيرهم من المفكرين في العلوم الإنسانية.
وماذا يمكن للمدراء التنفيذيين وفرق الإدارة العليا القيام به لقيادة الطريق فيما يتعلق بالتحيز والإنصاف؟ فيما يلي ست خطوات أساسية يجب القيام بها:
أولاً، سيحتاج قادة الأعمال إلى مواكبة آخر التطورات في مجال البحث السريع هذا. وتوفر العديد من المؤسسات موارد لتعلم المزيد، مثل التقارير السنوية لمعهد "آيه آي ناو إنستيتيوت" (AI Now Institute) و"بارتنرشب أون أيه آي" (Partnetship on AI) ومفهوم الإنصاف والشفافية والخصوصية من مؤسسة آلان تورينغ إنستيتوت (Alan Turing Institute).
ثانياً، عندما تقوم شركتك أو مؤسستك بتطبيق الذكاء الاصطناعي، عليك إنشاء عمليات مسؤولة يمكنها التخفيف من التحيز. فكر في استخدام مجموعة من الأدوات التقنية، فضلاً عن الممارسات التشغيلية مثل "فرق الإنذار" الداخلية أو عمليات تدقيق خارجية. وتقدم شركات التقنية بعض المساعدة هنا من قبيل "جوجل آيه أي" (Google AI) التي نشرت ممارسات موصى بها، بينما يجمع إطار عمل "فيرنس 360" (Fairness 360) من شركة "آي بي إم" بعضاً من الأدوات التقنية الشائعة.
ثالثاً، قم بالانخراط في محادثات قائمة على الحقائق حول التحيزات البشرية المحتملة. لقد اعتمدنا لفترة طويلة على الوكلاء مثل الفحوصات الإجرائية عند تقرير ما إذا كانت القرارات الإنسانية عادلة. الآن، مع أدوات أكثر تطوراً للبحث عن التحيز في الآلات، يمكننا استخدام ذات المعايير التي نحاسب بها البشر. ومن الأمثلة على هذه تشغيل الخوارزميات في ترافق مع صانعي قرارات بشر، ومقارنة النتائج، واستخدام "أساليب التفسير" التي تساعد على تحديد كيف توصل النموذج إلى ذاك القرار لفهم سبب وجود اختلافات. الأهم من ذلك، عندما نجد التحيز، لا يكفي تغيير خوارزمية، بل يجب على قادة الأعمال أيضاً تحسين العمليات المقادة بشرياً أيضاً.
رابعاً، فكر في كيفية عمل البشر والآلات معاً لتخفيف التحيز. وتقدم بعض أنظمة "الإنسان في حلقة اتخاذ القرار" توصيات أو توفر خيارات يقوم البشر بالتحقق منها أو الاختيار من بينها. ويمكن للشفافية حول ثقة هذه الخوارزميات في توصيتها أن تساعد البشر على فهم مقدار الوزن الذي يجب عليهم إعطاؤه.
خامساً، استثمر أكثر، ووفر المزيد من البيانات، واتبع منهجاً متعدد التخصصات في أبحاث التحيز (مع احترام الخصوصية) لمواصلة التقدم هذا المجال. وترينا الجهود الهامة لجعل اختيارات المصممين أكثر شفافية وإدراج الأخلاقيات في مناهج علوم الكمبيوتر، من بين أمور أخرى، الطريق المستقبلي لهذا. وستكون هناك حاجة إلى المزيد.
وأخيراً، استثمر أكثر في تنويع حقل الذكاء الاصطناعي نفسه. سيكون مجتمع الذكاء الاصطناعي الأكثر تنوعاً مجهزاً بشكل أفضل لتوقع ومراجعة وتحديد موقع التحيز وإشراك المجتمعات المتأثرة. سيتطلب ذلك استثمارات في التعليم والفرص - مثل أعمال "أيه آي فور أول" (AI4ALL)، وهي منظمة غير ربحية تركز على تطوير مجموعة متنوعة وشاملة من مواهب الذكاء الاصطناعي في المجتمعات الممثلة تمثيلاً ناقصاً من خلال التعليم والإرشاد.
يتمتع الذكاء الاصطناعي بالعديد من الفوائد المحتملة للأعمال التجارية والاقتصاد ولمواجهة أكثر التحديات الاجتماعية إلحاحاً في المجتمع، بما في ذلك تأثير التحيزات البشرية. لكن ذلك لن يكون ممكناً إلا إذا وثق الناس في هذه الأنظمة لتحقيق نتائج غير متحيزة. ويمكن أن يساعد الذكاء الاصطناعي البشر في التحيز - ولكن فقط إذا كان البشر يعملون معاً لمعالجة التحيز في الذكاء الاصطناعي.