يستخدم التعلم الآلي بشكل متزايد للتنبؤ بمواقف الأفراد وسلوكياتهم وتفضيلاتهم عبر مجموعة من التطبيقات، بدءاً من التسويق الشخصي إلى الطب الدقيق. ولم يكن مستغرباً (نظراً إلى تزايد سرعة تغير وتعقيد هذه البرمجيات) أن يشهد العالم في الفترة الأخيرة العديد من الحالات البارزة التي "فشل" فيها التعلم الآلي في تحقيق النتائج المرجوة.
أوقِف تشغيل روبوت الدردشة (تشاتبوت) المدرب على استخدام تويتر بعد يوم واحد فقط من إطلاقه بسبب تغريداته غير اللائقة والتهجمية. وتواجه نماذج التعلم الآلي المستخدمة في محرك بحث شهير صعوبة في تمييز صور البشر من صور الغوريلا وتعرض على المتصفحات النساء وظائف ذات أجر أكثر انخفاضاً مقارنة بالمستخدمين الرجال. في الآونة الأخيرة، قارنت دراسة بين أداة تحليل مخاطر الجريمة الشائعة الاستخدام "كومباس" (COMPAS) وتوقعات العودة إلى تكرار الجرم التي توصل إليها 400 شخص غير مدربين وظفتهم شركة أمازون ميكانيكال تورك (Amazon Mechanical Turk) وهي سوق إلكتروني للتعهيد الجماعي لتنسيق العمل البشري لأداء مهام لا يؤديها الكمبيوتر. وتشير النتائج إلى أن "كومباس" تعلمت كيف تكون متحيزة عنصرياً ضمناً، ما جعل توقعاتها أقل دقة من تنبؤات إنسان مبتدئ.
عندما لا تحقق النماذج الآلية القصد من وراءها، عادة ما يُحمل الأشخاص وعملية المعالجة المسؤولية. يمكن أن يظهر التحيز في أشكال عديدة عبر مراحل مختلفة من عملية التعلم الآلي، بما في ذلك جمع البيانات وإعداد البيانات والنمذجة والتقييم والتطبيق. قد ينتج عن انحياز العينة نماذج مدربة على بيانات لا تمثل مجمل الحالات المستقبلية. ويمكن لانحياز الأداء أن يبالغ في تصورات القوة التنبؤية وقابلية التعميم وتجانس الأداء عبر شرائح البيانات. ويمكن أن يؤدي الانحياز التأكيدي إلى طلب المعلومات وتفسيرها والتأكيد عليها وتذكرها بطريقة تؤكد المفاهيم المسبقة. انحياز الارتساء أو الارتكاز قد يؤدي إلى الإفراط في الاعتماد على أول جزء تجري معاينته من المعلومات. فكيف يمكننا تخفيف التحيز في التعلم الآلي؟
في مشروعنا الحاصل على تمويل فيدرالي (مع ريك نتماير وديفيد دوبولي وإندرانيل باردان)، نعمل على تطوير منصة متنقلة لإنترنت الأشياء تركز على المريض لأولئك المعرضين لخطر الإصابة المبكرة بأمراض القلب والأوعية الدموية في ما يُعرف باسم "حزام السكتة الدماغية"، وهي منطقة تغطي جنوب شرق الولايات المتحدة الأميركية، حيث ترتفع معدلات حوادث السكتة الدماغية بنسبة 25% إلى 40% عن المتوسط الوطني. كجزء من المشروع، صممنا نماذج للتعلم الآلي تعتمد على أنواع مختلفة من المدخلات غير المهيكلة بما في ذلك نصوص محتوى ينشئها المستخدم وبيانات القياس عن بعد وتلك الملتقطة بواسطة مستشعرات. تضمن أحد العناصر المهمة للمشروع تطوير نماذج تحليل نصوص التعلم العميق لاستنتاج الأبعاد النفسية القياسية (السيكومترية)، مثل الإلمام بالحساب والإلمام بالقراءة والثقة والقلق، والتي ثبت أن لها تأثيراً عميقاً على النتائج الصحية بما في ذلك العافية وزيارة الطبيب في المستقبل والامتثال لنظم العلاج. والفكرة هي أنه إذا تمكن الطبيب من معرفة أن المريض كان، على سبيل المثال، متشككاً إزاء الأطباء والعاملين الصحيين، بإمكانه تخصيص ومواءمة نظام رعايته للتغلب على نقص الثقة لديه. تتنبأ نماذجنا بهذه الأبعاد السيكومترية استناداً إلى البيانات التي جمعناها.
بالنظر إلى أن أمراض القلب والأوعية الدموية يُرجح أن تؤثر بصورة غير متناسبة على صحة مجموعات سكانية متباينة، أدركنا أنه سيكون ذا أهمية حيوية التخفيف من التحيزات العنصرية والمتصلة بالنوع الاجتماعي والظروف الاجتماعية-الاقتصادية في نماذج تحليل النص لدينا. وبوحي من مفهوم "حماية الخصوصية بحكم التصميم" الذي أكدته التشريعات العامة لحماية البيانات المعتمدة لدى الاتحاد الأوروبي (European Union’s General Data Protection Regulation)، اعتمدنا استراتيجية "الإنصاف بحكم التصميم" أون "العدل في التصميم" التي ضمناها مواصفات رئيسة. يمكن للشركات وعلماء البيانات الذين يتطلعون إلى تصميم مماثل يراعي الإنصاف اتخاذ الخطوات التالية:
- جعل علماء البيانات يعملون مع عالم اجتماع. يتحدث علماء البيانات وعلماء الاجتماع لغتين مختلفتين إلى حد ما. "التحيز" بالنسبة لعالم البيانات له معنى تقني معين، إذ يشير إلى مستوى التجزئة في نموذج التصنيف. وبالمثل، يشير مصطلح "القدرة التمييزية" إلى المدى الذي يمكن أن يميز فيه النموذج بدقة فئات البيانات (على سبيل المثال، المرضى المعرضون لخطر كبير مقابل خطر متدن للإصابة بأمراض القلب والأوعية الدموية). في علم البيانات، يعد زيادة "القدرة التمييزية" هدفاً أساسياً. على النقيض من ذلك، عندما يتحدث علماء الاجتماع عن التحيز أو التمييز، فإنهم على الأرجح يشيرون إلى مسائل تتعلق بالمساواة. ويكون علماء الاجتماع عادة مجهزين بشكل أفضل لتوفير منظور إنساني حول النزاهة والتحيز.
في مشروع "حزام السكتة الدماغية"، حرصنا منذ البداية على الاستعانة بعلماء النفس، وعلماء نفس خبراء في الاختبارات النفسية وعلماء أوبئة ومتخصصين في التعامل مع جماعات سكانية ذات أوضاع صحية متباينة. سمح لنا هذا بحيازة وعي أفضل بالتحيزات الديموغرافية التي قد تتسلل إلى عملية التعلم الآلي.
- التأني في كتابة التعليقات والشروحات. غالباً ما ينشئ كتاب الحواشي والتعليقات التوضيحية البشر البيانات غير المهيكلة مثل النص والصور ويقدمون توصيفات أو تسميات منظمة لكل فئة تستخدم بعد ذلك لتدريب نماذج التعلم الآلي. على سبيل المثال، يمكن أن يصف المعلق الصور التي تحتوي على أشخاص، أو يضع علامة على النصوص التي تحتوي على مشاعر إيجابية مقابل تلك التي تحتوي على مشاعر سلبية.
أصبحت خدمات التعليقات التوضيحية البشرية نموذجاً تجارياً رئيساً وظهرت العديد من المنصات عند تقاطع التعهيد الجماعي مع اقتصاد الأعمال الحرة. على الرغم من أن جودة التعليقات التوضيحية كافية لدى أداء العديد من المهام، إلا أن التعليقات التوضيحية البشرية بطبيعتها عرضة لفيض من التحيزات المتأصلة ثقافياً.
في مشروعنا، توقعنا أن يؤدي هذا إلى إدخال التحيز في نماذجنا. على سبيل المثال، في حالة وجود شخصين يتمتعان بمستوى متماثل من الإلمام الحسابي الصحي، من المرجح أن يُعطي المعلقون أحدهما درجة أقل من الآخر إذا تضمنت كتابته أخطاء إملائية أو أخطاء نحوية. يمكن أن يؤدي هذا إلى تسرب تحيزات إلى النماذج المدربة مثل التشديد الزائد على أهمية الأخطاء الإملائية بالنسبة إلى المزيد من إشارات التنبيه الجوهرية عند التنبؤ بالإلمام الحسابي الصحي.
وتوصلنا إلى أن أحد الأساليب الفعالة يقوم على تضمين حالات التحيز المحتملة في برنامج تدريب المعلقين لزيادة الوعي بها. ومع ذلك، في مشروع "حزام السكتة الدماغية" تجاوزنا مسألة التعليق التوضيحي برمتها واعتمدنا بدلاً منها على البيانات المأخوذة مباشرة من المعنيين. في حين أن هذا النهج ليس ممكناً دائماً، وقد لا يخلو من مشكلات، فقد سمح لنا بتجنب التحيزات العنصرية المرتبطة بالتعليقات التوضيحية.
- الجمع بين مقاييس التعلم الآلي التقليدية وقياسات الإنصاف. عادة ما يقياس أداء نماذج تصنيف التعلم الآلي باستخدام مجموعة صغيرة من المقاييس الراسخة التي تركز على الأداء العام والأداء على مستوى الدرجة وقابلية تعميم النموذج ككل. ومع ذلك، يمكن تعزيز هذه المقاييس بتدابير الإنصاف المصممة لقياس مدى تحيز التعلم الآلي. تعد مؤشرات الأداء الرئيسة هذه ضرورية لتكوين الوعي الظرفي، عملاً بالحكمة القائلة إن ما لا يمكن قياسه لا يمكن تحسينه. من خلال استخدام مقاييس الإنصاف في دراسة التنبؤ بتكرار الجرم المذكورة سابقاً، لاحظ الباحثون أن النماذج الحالية كانت منحرفة بشدة في تقييمات المخاطر التي وضعوها بالنسبة إلى بعض الفئات.
في مشروعنا، فحصنا أداء النموذج لدى مختلف القطاعات السكانية وكذلك افتراضات النموذج الأساسية، لتحديد القطاعات السكانية ذات القابلية العالية للتحيز في سياقنا. كانت تدابير النزاهة المهمة التي دمجت خلال وعبر القطاعات ضمن معدلات صحيح/خطاً وإيجابي/سلبي ومستوى الاعتماد على المتغيرات الديموغرافية. قد تكون الشرائح ذات المعدلات الإيجابية الزائفة والسلبية الزائفة الأعلى بشكل غير متناسب عرضة للتعميمات المفرطة. بالنسبة للشرائح التي تبدو نتائجها عادلة في الوقت الحالي، إذا حصلت متغيرات ديموغرافية على وزن كبير مقارنة بغيرها وكانت بمثابة محركات رئيسة للتنبؤات، فقد تبرز إمكانية التعرض للتحيز في البيانات المستقبلية
- عند تحديد العينة، وازن التمثيل مع قيود الكتلة الحرجة. عندما يتعلق الأمر بتحديد عينات البيانات، اقتضت الحكمة المتعارف عليها على ضمان تمثيل العينات إحصائياً للحالات المستقبلية التي من المحتمل أن يواجهها نموذج معين. يعد هذا في العادة ضمن الممارسات الجيدة. المشكلة الوحيدة التي تطرحها عملية التمثيل هي أنها تقلل من شأن الحالات التي تمثل أقلية، أي تلك الأقل انتشاراً من الناحية الإحصائية. في حين يبدو هذا الأمر بديهياً ومقبولاً، على أساس أنه ستكون هناك دائماً حالات أكثر وأقل انتشاراً، تنشأ المشكلات عندما تكون مجموعات سكانية معينة أقليات إحصائية في مجموعة بياناتك. تُحفز نماذج التعلم الآلي في الأساس على تعلم الأنماط التي تنطبق على المجموعات الكبيرة لكي تصبح أكثر دقة، وهذا يعني أنه إذا لم يتم تمثيل مجموعة معينة بشكل مناسب في بياناتك، فلن يعطي النموذج الأولوية للتعلم عنها. في مشروعنا، اضطررنا إلى تضخيم عينات الحالات المتعلقة بمجموعات سكانية معينة بشكل كبير من أجل ضمان أن نحصل على كتلة حرجة من عينات التدريب اللازمة للوفاء بتدابير الإنصاف لدينا.
- عند بناء نموذج، احرص على الحد من التحيز. حتى مع الخطوات المذكورة أعلاه، غالباً ما يكون ضرورياً الحرص على الحد من التحيز خلال مرحلة بناء النموذج والتدريب. لقد اقتُرحت عدة تكتيكات. تتمثل إحدى الطرق في تجريد بيانات التدريب تماماً من أي إشارات سكانية، صريحة وضمنية. في دراسة التنبؤ بتكرار الجرم التي نوقشت آنفاً، لم يُزود المتنبئون البشر المبتدئون بأي معلومات عن العرق. ويتمثل نهج آخر في دمج تدابير الإنصاف في أهداف النموذج التدريبية، وذلك على سبيل المثال، من خلال "تعزيز" أهمية بعض الحالات التي تمثل أقلية أو حالة قصوى غير مرجحة ولكنها ممكنة.
في مشروعنا، وجدنا أنه كان من المفيد تدريب نماذجنا داخل القطاعات السكانية المحددة خوارزمياً على أنها عرضة بدرجة كبيرة للتحيز. على سبيل المثال، إذا كانت الشريحتان "أ" و"ب" عرضة للتعميمات غير الضرورية (كما تم تحديدها من خلال مقاييس الإنصاف لدينا)، فإن أنماط التعلم داخل هذه القطاعات توفر بعض مظاهر التجانس الديموغرافي وتخفف من مشكلات أخذ عينات الأغلبية/الأقلية، وهو ما يجبر النماذج على تعلم أنماط بديلة. في حالتنا، لم يكتف هذا النهج بتعزيز مقاييس الإنصاف بشكل ملحوظ (بنسبة 5% إلى 10% لبعض القطاعات)، ولكنه عزز أيضاً الدقة الإجمالية ببضع نقاط مئوية.
قبل نحو عامين، كنا في مؤتمر، حيث أعرب الرئيس التنفيذي لشركة كبرى متعددة الجنسيات عن أسفه إزاء "إلقاء مبدأ الحذر بظلاله على مبدأ الابتكار". هذا أحد أوجه القلق التي يعبر عنها الرؤساء التنفيذيون ومجموعات التعلم الآلي في جميع أنحاء العالم حيال كل من الخصوصية والتحيز. لكن الإنصاف بحكم التصميم لا يتعلق بإعطاء الأولوية للصواب السياسي أو مراعاة جميع شرائح المجتمع على حساب دقة النموذج. إيلاء التصميم العناية الكافية، سيتيح لنا تطوير نماذج عالية الأداء ودقيقة ونزيهة. يستلزم تبني فكرة الإنصاف بحكم التصميم دراسة مختلف أجزاء عملية التعلم الآلي من منظورات بديلة باستخدام عدسات نظرية منافسة. في مشروعنا "حزام السكتة الدماغية"، تمكنا من تطوير نماذج ذات أداء كلي أعلى، وقابلية أكبر للتعميم عبر مختلف الشرائح السكانية، وتحسين استقرار النموذج، بما يعطي نظام الرعاية الصحية امكانية توفير التدخل المناسب للشخص الذي يحتاجه في الوقت المناسب.
من خلال الاسترشاد بمبدأ الإنصاف في مشاريع التعلم الآلي، لم نبن فقط نماذج أكثر عدلاً، بل صممنا نماذج أفضل أيضاً.