كيف يدفعنا تعلم الآلة إلى تحديد معنى العدالة؟

6 دقائق

يعتبر التحيز الخطيئة الأولى عند تعلم الآلة، إذ هو جزء أصيل في جوهر تعلم الآلة، وذلك لأن النظام يستمد تعليمه من خلال البيانات، ومن ثم فهو مُعرض للإصابة بعدوى التحيزات البشرية التي تمثلها البيانات، فمن المرجح، على سبيل المثال، أن "يتعلم" نظام توظيف قائم على تعلم الآلة ومدرب على نظام العمالة الأميركية الحالية أن المرأة لا تشغل منصب الرئيس التنفيذي إلا فيما ندر.

وقد يكون تنقيح البيانات بشكل دقيق بحيث لا يكتشف النظام أي علاقات خفية أو ضارة أمراً بالغ الصعوبة، وحتى مع توجيه أكبر قدر من العناية قد يجد نظام تعلم الآلة أنماط تحيز على درجة كبيرة من الدقة والتعقيد تجعلها محجوبة عن أنظار المراقب حسن النية. ومن هنا تأتى أهمية تركيز علماء الكمبيوتر وواضعي السياسات وكل من يهتم بتحقيق العدالة الاجتماعية على كيفية خلو الذكاء الاصطناعي من التحيز في الوقت الحالي.

بيد أن طبيعة تعلم الآلة ذاتها قد تُرغمنا على التفكير في العدالة بطرق جديدة ومثمرة، فمن واقع خبرتنا في مجالات تعلم الآلة صرنا على دراية بالمفاهيم والمفردات والأدوات التي تمكننا من معالجة المسائل ذات الصلة بالتحيز والعدالة بصورة مباشرة وبدقة أكثر من ذي قبل.

لقد دأبنا على النظر إلى العدالة بوصفها مسلَّمة أخلاقية، فإذا طلبت من أحدهم أن يضرب لك مثالاً عن الظلم، ففي الغالب الأعم سيخبرك بشيء على غرار الطفلين اللذين يحصلان على كمية مختلفة من البسكويت، فهذا ظلم بين، ما لم يكن هناك اختلاف بينهما يبرر هذه التفرقة: كأن يكون أحدهما أكبر حجماً أو سناً من الآخر، أو أن أحدهما وافق على أداء بعض الأعمال المنزلية الإضافية مقابل الحصول على قطع إضافية من البسكويت، وما إلى ذلك. ومن خلال هذا المثال البسيط، يمكننا تعريف العدالة بأنها المساواة في معاملة الناس ما لم يكن هناك تميز بينهم يبرر عدم المساواة في المعاملة.

ولكن ما الذي يشكّل "التمييز ذا الصلة"؟ الحقيقة أننا نتفق حول ما هو غير عادل بصورة أسهل من اتفاقنا على ما هو عادل، وربما نتفق جميعاً على أن التمييز العنصري أمر خاطئ، ولكننا بعد مرور ستين عاماً من الآن سنظل نتجادل حول ما إذا كان التمييز الإيجابي علاجاً عادلاً أم لا.

فعلى سبيل المثال: يمكننا أن نتفق على أن نسبة العازفات الموسيقيات اللاتي كن يمثلن أقل من 5% من الفرق الموسيقية الخمس الأولى في السبعينيات أمر غير عادل. في هذه الحالة ربما نتفق على أن الحل الواقعي الذي اتبعته الفرق الموسيقية يبدو أكثر عدلاً، حيث خضع المتقدمون للاختبار وهم يقفون خلف ستار يخفي جنس كل واحد منهم، فارتفعت نسبة تمثيل المرأة في الفرق الموسيقية الخمس الأولى إلى 25% في عام 1997، لتصل اليوم إلى 30%.

ولكن هل اتباع منهج لا يميز بين الجنسين أسلوب عملي بما يكفي لتحقيق نتائج عادلة فعلياً؟ ربما تمنح التحيزات الثقافية العازفين الموسيقيين من الرجال مزايا غير بيولوجية، فإذا قبلت المعاهد الموسيقية العليا عدداً أكبر من الموسيقيين الرجال على سبيل المثال، فسيتحصلون على ميزة أفضل لتعلم الموسيقى، وربما تشكلت معايير العزف الموسيقي تلقائياً مع مرور الزمن وفق سمات الرجال أو تفضيلاتهم، كأحجام كف اليد، أو قوة الأداء، ولكن هل نسبة الـ 30% كافية بالنسبة لنا لكي نعلن أن الفرق الموسيقية الآن عادلة في تعاملها مع المرأة؟ ألا ينبغي أن يكون التوزيع بين الجنسين للموسيقيين بنسبة 51% لكي يعكس النسبة بين الجنسين في مجمل التركيبة السكانية؟ أم ينبغي له أن يعكس نسبة الذكور إلى الإناث الخاصة بالمتقدمين للانضمام إلى هذه الفرق الموسيقية؟ أم لا بد أن تكون النسبة أعلى من ذلك لكي تسهم جزئياً في إصلاح ما أفسدته قرون طويلة من التحيز الذي أدى إلى أن يكون أغلبية أعضاء الفرق الموسيقية من الرجال؟ (فضلاً عن أن هذه المناقشة بأكملها قائمة على افتراض أن الأنواع الجنسية تقتصر على نوعين فقط، وهذا غير صحيح).

بوسع تعلم الآلة أن يساعدنا في هذا النوع من المناقشات، لأنه يلزمنا بأن نعطيه المعلومات بطرق دقيقة للغاية فيما يخص نوعية النتائج التي نعتبرها مقبولة أخلاقياً، كما أنه يمدنا بالأدوات اللازمة لإجراء هذه المناقشات –أو الجدالات غالباً– بطرق أكثر وضوحاً وإنتاجية.

وتشتمل هذه الأدوات على مفردات تنشأ من المهمة الأكثر شيوعاً لتعلم الآلة: وهي تحديد الخانة المناسبة لأن توضع فيها مدخلات معينة، فإذا كانت المدخلات عبارة عن صورة آنية لثمرة طماطم على سير متحرك في أحد مصانع صلصلة المكرونة، فسيُكتب على الصناديق إما "صالحة" وإما "غير صالحة"، على أن يُلحق كل مدخل بالصندوق الذي يخصه مع التقيد بمستوى ثقة معين: كالاقتناع بنسبة 72% بأن هذه الطماطم صالحة للأكل مثلاً.

إذا كان فرز الطماطم هو المهمة الأساسية للنظام الخاص بك، فإنك إذن ستهتم بعدد ثمرات الطماطم التي أُفرزت خطأ: وهو عدد ثمرات الطماطم السليمة التي وضعها نظام تعلم الآلة في الصندوق المخصص للطماطم غير الصالحة، وعدد ثمرات الطماطم الفاسدة التي وضعها في الصندوق المخصص للطماطم الصالحة، أي الموافقات الخاطئة والفرص الضائعة، وبما أن المدخلات تُلحق دائماً بصناديقها وفقاً لمستوى الثقة، فإن نظام تعلم الآلة يمنح مصمميه أزرار سحب تمكنهم من ضبط النتائج على تحقيق مستويات مختلفة من العدالة.

فإذا كنت على سبيل المثال تمتلك مصنع الطماطم هذا، فقد ينصب أغلب اهتمامك على الدقة الإجمالية للتطبيق الجديد لفرز الطماطم القائم على نظام تعلم الآلة، ولكن قد ينصب اهتمام المشغل أكثر على ثمرات الطماطم الفاسدة الموضوعة في صندوق الطماطم الصالحة أكثر من اهتمامه بوجود الطماطم الصالحة في صندوق الطماطم غير الصالحة، أو إذا كنت صاحب مصنع طماطم غير مهتم بالجودة، فقد يكون استياؤك من خسارة الطماطم السليمة أكثر من استيائك من أن تحتوي الصلصلة التي تصنعها على بعض ثمرات الطماطم الفاسدة.

يتطلب تعلم الآلة منا أن نكون واضحين تماماً بشأن ما نريده، فإذا كان القلق يساورك بشأن الطماطم الفاسدة الموجودة في صلصتك، فسيتعين عليك أن تحدد نسبة الطماطم الفاسدة التي يمكنك قبولها (والتي يمكن لزبائنك ومحاميك قبولها كذلك).  ويمكنك أن تتحكم في هذه النسبة من خلال ضبط مستوى الثقة اللازم لوضع الطماطم في صندوق الطماطم الصالحة: هل تريد أن تجعل الحد الأدنى لمستوى الثقة 98% أم تريد أن تخفضه إلى 60% فقط؟ وعندما تحرك سير النقل يميناً أو يساراً، فإما ستضع المزيد من الطماطم السليمة في صندوق الطماطم غير الصالحة، وإما ستضع المزيد من الطماطم الفاسدة في صندوق الطماطم الصالحة للاستخدام.

تعتبر الطماطم السليمة المهملة التي توضع في صندوق الطماطم غير الصالحة عبارة عن نتائج سلبية زائفة، في لغة تعلم الآلة، أما الطماطم الفاسدة الموضوعة في صندوق الطماطم الصالحة للاستخدام فعبارة عن نتائج إيجابية زائفة.

يصبح هذان المصطلحان مفيدين عندما نتحدث عن العمليات التي تشبه فرز طلبات القروض وتصنيفها إلى إما مقبولة أو مرفوضة (تحقيقاً للغرض من هذا الافتراض، سنتجاهل أي قوانين تحكم عمليات الموافقة على القروض). لنفترض أن 30% من مقدمي طلبات القروض من النساء، ولكن لا تتم الموافقة سوى على 10% من طلبات القروض التي يقدمها النساء، وبدلاً من النظر إلى نسبة الطلبات المقدمة من النساء والمقبولة، أو نسبة الرجال والنساء الذين يتأخرون في سداد قروضهم، ينبغي لنا النظر فيما إذا كانت نسبة النتائج الإيجابية الزائفة في طلبات النساء المرفوضة أعلى من نسبة النتائج الإيجابية الزائفة في طلبات الرجال المرفوضة.

وضع الباحثون في مجال تعلم الآلة تعريفات دقيقة لأنواع العدالة التي قد ناقشناها هنا، ونعتوها بأسماء من قبيل "التكافؤ الديموغرافي" و"تكافؤ المعدل التنبؤي" و"العدالة الافتراضية"، ويمكن لتوافر هذه الأمور عند التحدث في هذه القضايا مع الخبراء أن يجعل هذه المناقشات تسير بشكل أسهل مع المزيد من الإحاطة بجميع جوانب الجدال، فهي لا تخبرنا بنوع العدالة الذي ينبغي أن نتبناه في كل موقف، ولكنها تسهّل علينا خوض جدال مثمر حول هذه المسألة.

ولعل هذا الأمر صحيح عند المستوى الأعلى من التجريد، لأننا نحدد ما نعتبره نظام تعلم آلة ناجحاً، فعلى سبيل المثال: يمكننا تدريب نظام تعلم الآلة الخاص بفرز طلبات القروض على تحسين نفسه لتحقيق أعلى الأرباح لعملنا التجاري، أو أعلى الإيرادات، أو لاستقطاب أكبر عدد ممكن من الزبائن. بل يمكننا أن نقرر، لأسباب تتعلق بالعدالة الاقتصادية، أننا نريد توفير بعض القروض للأشخاص الأكثر فقراً، بدلاً من توفيرها للأثرياء فقط. لا بد أن يمكِّننا نظام تعلم الآلة الخاص بنا من الحكم على المخاطر، أو من ضبط نسبة الحد الأدنى لدخل الأشخاص الذين يريدون قبول طلباتهم، أو من وضع مستوى ربحية أدنى للقروض التي نقدمها.

كما أن نظام تعلم الآلة يوضح أننا لا نستطيع دائماً -أو حتى عادة- تحسين نتائجنا لكل قيمة قد نمتلكها، فعلى سبيل المثال قد تجد شركة قروض، في هذا الافتراض، أن قبول المزيد من طلبات محدودي الدخل والموافقة عليها يؤثر على نسبة طلبات النساء المقبولة، ويمكن تصور العجز عن تحسين النظام لكلتا الفئتين معاً في الوقت نفسه. في مثل هذه الحالات، قد ترغب في إيجاد قيمة أخرى تستعد لتعديلها من أجل تحقيق نتائج أكثر عدلاً لكل من محدودي الدخل والنساء. ولعل العمل على زيادة مخاطر شركتك بالقدر المقبول يمكّنك من تحقيق كلا الهدفين. إن أنظمة تعلم الآلة توفر لنا الأدوات اللازمة لإجراء مثل هذه التعديلات وتوقع نتائجها.

إذا نظرنا إلى الموضوع نظرياً، وبدلاً من الحديث عن استخدام أزرار السحب لضبط المزيج الموجود في كلا الجانبين، نتساءل عن تحسين القيم التي قد تبدو متعارضة، نجد أن تعلم الآلة يعلمنا أن العدالة ليست بسيطة بل معقدة، وأنها ليست مطلقة بل تنطوي على شيء من المقايضات.

قد تؤدي القرارات التي تلزمنا بها الحَرْفية المقيتة لتعلم الآلة بطبيعة الحال إلى مناقشات تبدو بعيدة الشبه بالجدالات المنطقية حول الأخلاق -أو الجدالات المثقلة بالمصطلحات الرنانة حول التكنولوجيا– أو أكثر شبهاً بالجدالات السياسية بين أشخاص ذوي قيم مختلفة: صلصلة طماطم رائعة أم صلصلة رديئة تزيد من أرباحنا؟ زيادة نسبة عازفات الموسيقى في الفرق الموسيقية أم الحفاظ على التكوين الحالي للفرق الموسيقية؟ تقديم قروض لمحدودي الدخل مع إمكانية أن يصحب ذلك انخفاض في نسبة طلبات النساء المقبولة؟

إذا كان تعلم الآلة يزيد من طرح هذه الأسئلة مع مستوى جديد من الدقة، ويمدنا بمفردات جديدة يمكننا التحدث بشأنها، ويتيح لنا محاولة إجراء بعض التعديلات لتحديد أفضل الطرق لتحسين جودة النظام من أجل الإعلاء من القيم التي نوليها اهتمامنا، فهو إذن يمثل دفعة للأمام. وإذا كان تعلم الآلة يقودنا إلى التحدث بشأن وسائل تصحيح الأوضاع غير العادلة من حيث القيم التي نوليها اهتمامنا، وإلى الاستعداد لعمل تسويات واقعية، فهو لا يُعد أيضاً نموذجاً سيئاً للعديد من الجدالات.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

المحتوى محمي