متى يكون مهماً أن تفسر الخوارزمية نفسها؟

8 دقائق

تتعثر الكثير من الجهود التي تهدف إلى تطبيق تعلم الآلة بسبب المخاوف من "الصندوق الأسود" - أي الافتقار إلى الشفافية المتعلقة بالسبب وراء قيام النظام بما يقوم به. يرجع هذا أحياناً إلى رغبة الأشخاص في فهم سبب التوصل إلى بعض التنبؤات قبل اتخاذ إجراءات جوهرية من شأنها أن تغير الحياة، كما هو الحال عندما يشير نظام الرؤية الحاسوبية إلى وجود احتمالية بنسبة 95% للإصابة بالسرطان بالاعتماد على صورة أشعة سينية لرئة المريض. يرجع السبب في ذلك في بعض الأحيان إلى حاجة الفرق الفنية إلى تحديد الأخطاء وحلها دون إيقاف النظام بأكمله أو تعطيله. والآن، بعد أن دخل النظام الأوروبي لحماية البيانات العامة (GDPR) حيز النفاذ، يتعين على الشركات التي تتعامل مع بيانات المستهلكين أن توضح كيفية قيام الأنظمة الآلية باتخاذ القرارات، وعلى وجه الخصوص، تلك القرارات التي تؤثر بشكل كبير على حياة الأفراد؛ مثل تخصيص الائتمان، أو تعيين شخص معين في وظيفة ما. ومع أنّ النظام الأوروبي لحماية البيانات العامة (GDPR) لا يطبق إلا في أوروبا، إلا أن الشركات في جميع أنحاء العالم تتوقع حدوث تغييرات مماثلة، وكذلك إعادة النظر في جهود الحوكمة.

إذا قمت بالبحث على الإنترنت، ستجد أن معظم الكتابات حول إمكانية تفسير الخوارزمية تنقسم إلى تيارين متعاكسين. فغالباً ما يقول أنصار سرعة تبني وتطبيق هذه التقنية أن البشر ليسوا أفضل من الآلات في تفسير وتوضيح القرارات التي يتخذونها، ولذا يجب علينا أن نؤجل هذا السؤال لنسرع من عملية الابتكار. إلا أن هذه المجادلات البلاغية لا تساعد المسؤولين عن الامتثال التنظيمي. وعلى الجانب الآخر، يطالب منتقدو سرعة تبني وتطبيق التقنية بتحقيق متطلبات صارمة للشفافية، ويعيبون ثقافة سرعة الحركة مهما كلف الأمر من خسائر وسبب من مشكلات. يمكن أن تؤدي هذه المجادلات إلى إبطاء عملية تبني التقنية وتطبيقها، حيث لا تتساوى كل حالات استخدام تعلم الآلة من حيث مستوى الإشراف الرقابي والمساءلة المطلوبة – فتفسير بعض القرارات أكثر أهمية من تفسير قرارات أخرى.

للنجاح في تطبيق مبدأ تعلم الآلة، يجب علينا الرجوع خطوة للوراء وتحليل المشكلة بشكل مفصّل. ماذا يعني أن يكون الإجراء الرياضي أو الإحصائي "مناسباً" (حسب مقتضى النظام الأوروبي لحماية البيانات العامة GDPR)؟ هل تتطلب حالات الاستخدام المختلفة أنواعاً مختلفة من التفسيرات؟ ما هي الجهات التي يجب مشاركتها في اتخاذ القرارات فيما يتعلق بتأثير الأعمال، والامتثال التنظيمي، والنهج الفني، بل وحتى القيم الأخلاقية عندما تقوم الشركات بدمج تعلم الآلة ضمن عمليات الأعمال؟

دعونا نبدأ بالكشف واقعياً عن السبب وراء صعوبة فهم وتنفيذ فكرة تبدو واضحة ومباشرة، مثل الحق في الحصول على التفسير المناسب.

كما هو الحال مع أي تقنية، عندما تبدأ أي مشروع لتعلم الآلة، عليك أن تقرر ما إذا كنت ستقوم ببناء المشروع من داخل الشركة، أو التعاقد مع شركة موردة لتنفيذه. فالعمل مع شركة موردة يعقّد موضوع الشفافية، فالكثير من شركات البرمجيات تميل إلى عدم الإفصاح عن الخوارزميات التي تستخدمها، أو البيانات التي تستخدمها لتدريب هذه الخوارزميات. وغالباً ما يكون السبب هو حماية الملكية الفكرية أو منع أي اختراق أمني. وهناك أيضاً مشكلة التعقيد: في حال استخدام الشركة الموردة  لمجموعات متعددة من البيانات العامة والخاصة لتدريب نظامها، ففكر في مدى صعوبة وجود آليات تدقيق لتتبّع بدقة ما استخدم منها في عملية اتخاذ القرار!

إذا لم تكن متعاقداً مع شركة توريد، واخترت أن تنفذ المشروع داخليًا مستخدماً موارد شركتك، فعليك أن تقرر ما إذا كنت تريد أن تشرح وتفسر الإجراءات التي ستستخدمها - على سبيل المثال، أنواع البيانات وأنواع النماذج - أو ما إذا كنت تريد أن تشرح وتفسر الأعمال الداخلية للنموذج الحسابي.

تشير اللغة المستخدمة في النظام الأوروبي لحماية البيانات العامة إلى أن ما يتطلب التفسير هو الإجراء. جاء في القسم رقم 71 أن "المعالجة العادلة والشفافة" تعني مراقبة  كيفية جمع البيانات، والحفاظ على دقة البيانات، وتأمين البيانات، واتخاذ التدابير اللازمة لتحديد والحيلولة دون أي آثار تمييزية. وينصبّ التركيز على جمع البيانات وتكاملها؛ حيث يجب أن تكون النماذج الإحصائية "ملائمة". جميع هذه الخطوات مهمة، ولكن غالباً ما يتم تجاهلها في المناقشات حول قابلية وإمكانية تفسير الخوارزمية، لأن هناك تركيز كبير على الخوارزميات والنماذج أنفسها. فعلى سبيل المثال، يمكن أن يتسلل الانحياز إلى الخوارزمية عند الكثير من الخطوات في النظام. فقد لا يكون عملك التجاري قد قدم خدماته لعدد كافي من السكان من أصل عرقي معين، لذلك ربما تكون قد جمعت كمية قليلة من البيانات عن هؤلاء السكان. وقد ترتبط المجتمعات العرقية والديموغرافية ارتباطاً وثيقاً بالبيانات الجغرافية، مما يؤدي إلى جعل ذلك المتغير الذي يبدو غير ضار، مثل نظام تحديد المواقع، تصريحاً بالتمييز العرقي. عند البدء في مرحلة الإنتاج، تواجه النماذج في الغالب حالات شديدة الحدة – ونعني بها المواقف أو البيانات أو الأفراد التي لا تشبه البيانات التي تم تدريب هذه النماذج عليها بشكل كافٍ. من المهم توخي الفحص النافي للجهالة لمراقبة التحيز قبل وبعد الدخول في مرحلة الإنتاج، واتخاذ إجراءات للتعامل مع أي معالجة غير مقصودة.

يتمثل أحد أنواع التفسيرات والتوضيحات في توضيح النتائج التي صُمم النظام لتحسينها. في المثال المتعلق بنظام تقديم طلبات الائتمان عبر الإنترنت، فعندما نعتبر أن النظام خاضع للمساءلة، فإنّ ذلك يعني المراقبة لضمان عدم ارتباط عمليات الرفض بخواص أو سمات محمية، مثل الخلفية العرقية. تتمثل القيود المفروضة على هذا النهج الذي يركز على النتائج في عدم المعرفة بما يجب على الفرد القيام به حتى يمكنه التدخل لتغيير قرار في المستقبل. حيث يتطلب النهج الذي يركز على التدخل امتلاك معرفة عميقة لطريقة عمل النموذج من الداخل. على سبيل المثال: "أنت غير مؤهل للائتمان لأنك لم تدفع آخر ثلاثة شيكات إيجار كانت مستحقة عليك. إذا دفعت الشيكات الأربعة المقبلة على التوالي، ستبلغ النقاط التي تحصل عليها الحد الكافي لتجاوز الحد الأدنى المطلوب وهو 75%".

عندما يكون من المهم فهم منطق النموذج الإحصائي، فإننا نواجه تحديات مختلفة.

كما أشرتُ في مقالتي حول التعرف على الفرص التي يتيحها تعلم الآلة، فإن خوارزميات تعلم الآلة المختلفة تتفاوت من حيث سهولة وصعوبة شرحها. ليس من الصعب تفسير الانحدار الخطي للمعادلة (y = mx + b): لا يتعين علينا سوى تتبع (m) لمعرفة كيفية ارتباط x (مُدخل) بـ y (مُخرج). ولكن ماذا لو كانت "m" تمثل ملايين العلاقات، بحيث تمثل معادلات معقدة في هندسة العمارة؟ مع التعلم العميق، نفقد القدرة على تحديد كيفية ارتباط المدخلات بالمخرجات، لأن عدد المتغيرات المتضمنة والعلاقات بينها تصبح معقدة للغاية بحيث لا يمكن شرحها. لذلك، على سبيل المثال، يمكن للشبكة العصبية العميقة الإشارة إلى احتمالية تخلف أحد الأفراد عن سداد قرض يحصل عليه بنسبة 95%، ولكن لا تستطيع تلك الشبكة العصبية العميقة تحديد الجوانب التي أدّت إلى هذه النتيجة في البيانات. لذلك، فهي عبارة عن مُبادلة، حيث أن الخوارزميات الأكثر تعقيدًا تطلق إمكانيات لا تستطيع النماذج الإحصائية الأكثر بساطة، مثل الانحدار الخطي، التوصل إليها- ولكن هذا يأتي على حساب إمكانية الشرح والتفسير. (يجدر بنا أيضاً أن نتذكر أنه عندما يقوم علماء البيانات ببناء خوارزميات أكثر بساطة، والتي قد يكون تفسيرها أيسر وأسهل، فإنهم يجلبون مع هذه الخوارزميات تحيزات وافتراضات تؤثر على ما تراه هذه الخوارزميات في البيانات؛ ومن الصعب تحديد هذه التحيزات غير الموضوعية والتحكم فيها باستخدام التكنولوجيا).

يتمثل التحدي الأخير في موضوع إمكانية التفسير في توضيح ما يتم تحسين وتطوير النموذج لأجله. العميل المثالي لبطاقة الائتمان هو الشخص الذي يستخدم البطاقة التي يشترك فيها بشكل متكرر (نتيجة طويلة الأجل)، وليس مجرد الشخص الذي يشترك ببطاقة الائتمان (نتيجة قصيرة الأجل). لا يمثل الأشخاص الذين ينقرون على الإعلانات الإلكترونية عملاء يتمتعون بقيمة عالية مدى الحياة، ولا تتمكن معظم جهود التسويق الرقمية من استخدام بيانات تصفح الإنترنت إلا كمجرد مؤشرات للمبيعات المباشرة. من الصعب قياس النتائج طويلة الأجل والحصول على التعليقات والملاحظات بشأنها، ولكن هذه العناصر المجهولة المعروفة يمكن أن تكون ذات قيمة عالية بالنسبة لأداء النظام.

قد يبدو هذا محبطاً، ولكن لو أن الأشخاص المناسبين طرحوا الأسئلة الصحيحة في الوقت المناسب للمساعدة في الوصول إلى مجموعة من الآراء والقرارات الحكيمة، لأصبحت الأمور سهلة التحكم.

بداية، يحتاج أصحاب المصالح من غير التقنيين المشاركين في مشروع تعلم الآلة إلى بعض التدريب لبناء القدرات حول كيفية عمل الأنظمة الإحصائية. وهم لا يحتاجون إلى المشاركة في أعمال البرمجة أو أن يكونوا علماء بيانات، كل ما عليهم هو أن يدركوا ويقدروا أن أنظمة تعلم الآلة تنتج علاقات وليس أسباب. كما يجب عليهم أن يقدروا أن أي مجموعة أقلية غير ممثلة ضمن  مجموعة البيانات تمثيلاً جيداً قد تُعامل معاملة غير عادلة من جانب الخوارزمية، ولا يرجع السبب في هذا إلى أي تحيّز من جانب علماء البيانات، ولكن سبب ذلك ميل النماذج إلى تعلم العلاقات التي تساعد على التنبؤ بأجزاء كبيرة من مجموعة البيانات، على حساب الدقة فيما يتعلق بالنماذج التي تحصل على تمثيل أقل.

بعد ذلك، وخلال المناقشات التي تسبق البدء بالعمل بالمشروع، ينبغي أن تكون هناك مجموعة متنوعة من أصحاب المصالح الذين يمثلون مجالات مختلفة؛ مثل الأعمال، وعلم البيانات، وتقنية المعلومات، والخصوصية، والامتثال على طاولة المناقشات. (يجب على الشركات أيضاً أن تنظر في تعيين شخص تسند إليه مهمة مراجعة الخوارزمية وانتقادها، مثل "الفرق الحمراء" التي يستعان بها أحياناً في اتخاذ القرارات عالية المخاطر). ومن المهم توضيح المتطلبات التنظيمية والمخاطر الأخلاقية قبل البدء بأي عمل لتجنب التكاليف الضائعة على التطبيقات مثار الاهتمام التي لا تلبي المتطلبات بموجب اللوائح الجديدة، مثل النظام الأوروبي لحماية البيانات العامة، أو تخاطر بالنيل من ثقة المستهلك.

يجب على مجموعات التصميم متعددة الوظائف هذه أن تجيب على عدد من الأسئلة، مثل:

ما نوع المساءلة أو المحاسبة الذي يهم في هذه الحالة؟ إمكانية الشرح والتفسير ليست مهمة في كل الحالات. فعلى سبيل المثال، في حال استخدام شركة محاماة تعلم الآلة للعثور على الوثائق ذات الصلة بالنسبة لقضية معينة، ما يهم في هذه الحالة هو عدم الإغفال عن وثيقة هامة، وليس عملية تفسير السبب وراء ارتباط وثيقة ما بالقضية وعدم ارتباط اخرى. هنا، يُطلق على المقياس الصحيح الذي يتعين على علماء البيانات التركيز عليه مسمى "الاسترداد"، بمعنى ذلك الجزء من الحالات ذات الصلة التي تم استردادها أو استرجاعها نسبة إلى العدد الإجمالي للحالات ذات الصلة، ضمن مجموعة وثائق معينة. يتعين على فريق علم البيانات تضمين هذا في عمليات اختبار النموذج وضمان الجودة التي يقومون بها. 

ما هو موقع نموذج تعلم الآلة بالنسبة  لعملية الأعمال الكاملة؟ ينبغي على محلل الأعمال تخطيط عملية الأعمال المتكاملة. غالباً ما تشتمل العملية الواحدة على الكثير من نماذج تعلم الآلة ويكون لكل منها  متطلبات مختلفة فيما يتعلق بإمكانية التفسير والإيضاح. على سبيل المثال، البنك الذي يستخدم تعلم الآلة لاكتساب عملاء بطاقات ائتمان جدد، يجب أن يكون لديه نموذجان على الأقل: واحد لتقييم المخاطر والموافقة على البطاقة (وهو يتطلب قدراً أكبر من إمكانية التفسير والتوضيح)، ونموذج آخر للتنبؤ بالميل إلى تحويل العروض وتخصيصها بحسب العميل (وهو يتطلب قدراً أقل من إمكانية التفسير والتوضيح). يتعين أن توفر وظائف الامتثال لمحللي الأعمال معلومات حول المتطلبات التنظيمية لكل مرحلة في عملية الأعمال، وينبغي أن يضع علماء البيانات هذه القيود في الحسبان والاعتبار بدلاً من الاكتفاء بتحديد أسلوب تعلم الآلة الذي يتمتع بأفضل أداء بالنسبة لتلك المهمة.

ما هي العمليات التي نستخدمها لتقييم النتائج؟ تعدّ أنظمة تعلم الآلة أدوات للتحسين، وتتمثل إحدى طرق تقييمها والتحكم  فيها في الانتقال من شرح وتفسير صفات البيانات التي أدت إلى هذه النتائج أو تلك، إلى تكوين سياسة أرفع مستوى بشأن النتائج المرغوبة، وإسناد مهمة تحقيق تلك السياسة إلى الأنظمة. هنا، يتعيّن أن يتحمل علماء البيانات مسؤولية تقييم نماذجهم فيما يتعلق بالتحيز نحو أنواع البيانات الحساسة؛ مثل الجنس أو الخلفية العرقية خلال عملية ضمان الجودة، والأهم من ذلك، بعد البدء بالعمل بالنموذج. تعمل النظم الإحصائية بشكل فعال في منتصف المنحنى الناقوسي للبيانات، حيث تتوفر كمية كبيرة من البيانات، ولكن قد يتوصل هذا النموذج إلى نتائج غير متوقعة عندما يتعلق الأمر بحالات أقل تمثيلاً في البيانات أو بسلوك جديد. ينبغي أن يكون هناك شخص تسند إليه مسئولية تدقيق أداء النموذج ومراقبته مع مرور الوقت، وتحديد أي سلوكيات للنموذج تتضارب مع سياسة العمل. كما ينبغي أن تجتمع الفرق الفنية، وفرق الأعمال، وفرق الامتثال بانتظام لمراجعة الأداء وتعديل النموذج من أجل تحقيق نتائج عادلة. ويتعين أن توثق الشركة مدى تكرار تحديث النماذج، وأن تتوفر عملية تكشف عن التحديثات هذه ومدى تأثيرها على التوقعات وما يتم من تغييرات على المستهلكين المتأثرين بالنظام.

عند الحديث حول قابلية وإمكانية الشرح، يتم التركيز بشكل كبير على طريقة عمل نماذج تعلم الآلة من الداخل، مما يؤدي إلى الخوف من "الصناديق السوداء" أو المجادلات بأن البشر ليسوا أفضل في شرح سلوكهم وقراراتهم من أكثر الآلات غموضاً. ولكي تنجح الشركات في مجال تعلم الآلة، يتعين عليها الرجوع للوراء قليلاً وتحليل المشكلة بالتفصيل، مع الأخذ في الاعتبار تأثير الأنظمة بشكل كلي، والتفكير بشكل ناقد فيما تنطوي عليه المساءلة الحقيقية بالنسبة لحالات الاستخدام المختلفة. في بعض الحالات، سيحتاج الأفراد فعلياً إلى المزيد من الشرح والتفسيرات المباشرة، سواء لضمان الراحة النفسية (عندما يتعلق الأمر بمريض كشف تشخيصه عن إصابته بالسرطان)، أو للتدخل لتغيير نتيجة ما (عندما يتعلق الأمر بتعديل الإجراءات لحصول شخص على قرض سكني في المستقبل بعد أن رُفض القرض الذي طلبه). ولكن هناك الكثير من العمليات التي يمكن التحكم فيها عن طريق وضع سياسات للنتائج المطلوبة، ومراقبة النتائج لتحديد التناقضات، وتحديث النماذج أو إجراءات جمع البيانات لتحسين النتائج المستقبلية. إنّ المهارة التي ما يزال ينبغي على مدراء  الأعمال تطويرها هي وضوح الرؤية بشأن ما هو مهم وما هو غير ذلك، وكذلك اتخاذ قرارات حكيمة في المواقف الملتبسة حول كم الخطأ الذي يمكن أن يتقبله المشروع أو يسمح به.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .