في العام 2013، تعرض كليفورد ناس ـ الأستاذ في جامعة ستانفورد، لثورة من جانب الطلاب. زعم طلاب كليفورد أنّ الزملاء في أحد الأقسام التي تدرس دورة واجهة التقنية التي يقوم بتدريسها كليفورد حصلوا على درجات في الامتحان النهائي أعلى من نظرائهم في امتحان آخر. ولسوء الحظ، كان هؤلاء الطلاب على حق: فقد قام مدرسان مساعدان بتصحيح وتقييم امتحانات الأقسام المختلفة، وكان أحد هذين المساعدين أكثر مرونة وتساهلاً من الآخر. وترتب على ذلك حصول الطلاب ممن كانت إجاباتهم مماثلة على درجات مختلفة.

أدرك كليفورد، عالم الكمبيوتر، عدم الإنصاف ووضع حلاً تقنياً للمشكلة: وهو نموذج إحصائي بسيط لتعديل الدرجات، حيث حصل الطلاب على رفع بنسبة مئوية معينة على درجاتهم النهائية عند تصحيح أوراقهم في الامتحانات من جانب مدرس مساعد معين معروف عنه أنه يعطي درجات أقل من المتوسط. وبروح من الصراحة، قام كليفورد بإرسال رسائل بريد إلكتروني إلى طلابه في الصف مع شرح كامل للخوارزمية التي وضعها. وانهالت عليه المزيد من الشكاوى، بل إنّ بعضها كان أكثر غضباً من ذي قبل. أين كان مكمن الخطأ الذي وقع فيه؟

يزداد اعتماد الشركات والحكومات على الخوارزميات في اتخاذ القرارات التي تؤثر على حياة الناس وسبل عيشهم – من الحصول على الموافقات على القروض إلى التوظيف والأحكام القانونية والقضائية والقبول في الجامعات. بل إن القرارات الأقل أهمية كذلك يتم إسنادها إلى الآلات، من نتائج البحث على الإنترنت إلى التوصيات الخاصة بالمنتجات، وتوفيق المواعيد، وتحديد المحتوى الذي يرتفع في موجزات شبكات التواصل الاجتماعي لدينا. استجابة لذلك، طالب الكثير من الخبراء بوضع قواعد وتشريعات من شأنها أن تجعل الأعمال الداخلية لهذه الخوارزميات شفافة. ولكن كما توضح تجربة كليفورد، يمكن أن تأتي الشفافية بنتائج عكسية في حالة عدم تنفيذها بعناية ودقة. لحسن الحظ، هناك طريق ذكي يمكننا أن نسلكه لإحراز التقدم.

الشفافية والثقة

بعد عامين من الاحتجاجات في صف كليفورد، جاء رينيه كيزيلسيتش، وهو طالب دراسات عليا (دكتوراه) في جامعة ستانفورد، وكان قد عمل تحت إشراف كليفورد، وقرر إجراء دراسة تبحث في تأثير الشفافية في تقييم أوراق الامتحانات على ثقة الطلاب. استخدم رينيه منصة كورسيرا (Coursera) ـ وهي منصة المساق الهائل المفتوح عبر الإنترنت (MOOC)، وهي منصة شأنها في ذلك شأن العديد من المساقات الهائلة المفتوحة عبر الإنترنت، وتستخدم عملية تقييم الأقران أو النظراء (Peer Grading) لإدارة الأعداد الهائلة من الاختبارات. باستخدام العملية، يتم إنجاز مهمة تقييم الطلاب، إلا أنّ عملية تقييم الأقران هذه تؤدي إلى تفاقم مشكلة التحيز في التقييم ومنح الدرجات نظراً لمشاركة عدد كبير من المصححين فيها، ولكل منهم صفاتهم الشخصية وميولهم المختلفة.

في الدراسة التي أجراها رينيه، قدم 103 طلاب مقالاتهم ليتم تصحيحها بنظام "تقييم الأقران" وحصلوا على علامتين: درجة تمثل درجة نظير متوسطة، ودرجة "محوسبة" والتي كانت نتاجاً لخوارزمية تم تعديلها بحيث تتفادى وقوع أي تحيز. وتم إخبار بعض الطلاب: "الدرجة المحوسبة هي (س)، وهي الدرجة التي حصلتم عليها من نظرائكم". ومُنح البعض الآخر قدر أكبر من الشفافية – في الواقع فقرة كاملة تشرح كيف تم حساب الدرجة، والسبب وراء إجراء التعديلات (لتفسير "التحيز والدقة" من جانب الأقران)، وذكر نوع الخوارزمية المستخدمة ("خوارزمية تعظيم التوقعات مع سابقة"). بعد ذلك، طُلب من كلتا المجموعتين تقييم ثقتهم في العملية.

وسُئل الطلاب عن الدرجة التي كانوا يعتقدون أنهم سيحصلون عليه، وتبين أن مستويات الثقة لدى أولئك الطلاب الذين وصلت درجاتهم الفعلية أو تجاوزت ذلك التقدير لم تتأثر بالشفافية. ولكن الأشخاص الذين لم تأت النتائج وفق توقعاتهم – أي الطلاب الذين حصلوا على درجات أقل مما كانوا يتوقعون – فقد زادت ثقتهم بالخوارزمية عندما حصلوا على المزيد من الشرح حول كيفية عملها. كان هذا مثار اهتمامٍ لسببين: فقد أكد وجود ميل بشري نحو زيادة فحص وتدقيق المعلومات في حال عدم تحقيق النتائج للتوقعات المطلوبة وانتهاك هذه التوقعات. وأظهر البحث أنه يمكن تخفيف وطأة عدم الثقة الذي قد يرافق النتائج السلبية أو المخيبة للآمال، إذا رسخ في عقيدة الأشخاص عدالة العملية الأساسية التي تكمن وراء ذلك.

ولكن كيف يمكننا التوفيق بين هذه النتيجة وبين تجربة كليفورد؟ لقد اختبر رينيه في الواقع ثلاثة مستويات من الشفافية: منخفضة ومتوسطة ومرتفعة، حيث لم يحصل الطلاب على فقرة نصية توضح لهم عملية التقييم والتصحيح فحسب، بل أيضاً على درجاتهم الأولية بحسب التقييم الذي قام به أقرانهم وكيفية تعديل كل درجة من هذه الدرجات بدقة من خلال الخوارزمية للوصول إلى الدرجة النهائية. وهنا على وجه التحديد صارت النتائج أكثر إثارة للاهتمام. في التجربة، بينما زادت الشفافية المتوسطة من الثقة بشكل كبير، أدت الشفافية المرتفعة إلى القضاء على الثقة تماماً، لدرجة أن مستويات الثقة كانت إما مساوية أو أدنى من مستويات الثقة بين الطلاب الذين كان مستوى الشفافية لديهم منخفضاً.

جعل الذكاء الاصطناعي الحديث شفافاً: هل هو مسعى عقيم يستحيل تحقيقه؟

ما الذي تستنبطه وتستفيده الشركات من هذه التجربة؟ الدلالة هنا على أن الشفافية التقنية – أي الكشف عن كود المصدر للخوارزمية ومدخلات ونتائج الخوارزمية – يمكن أن تبني الثقة في الكثير من المواقف. لكن معظم الخوارزميات في العالم حالياً يتم إنشاؤها وإدارتها من جانب الشركات الربحية، وتنظر الكثير من الشركات إلى خوارزمياتها كأشكال من الملكية الفكرية عالية القيمة والتي يجب أن تبقى في "الصندوق الأسود". اقترح بعض المشرعين حلاً وسطاً لهذا الأمر، حيث اقترحوا إمكانية الكشف عن كود المصدر للهيئات التنظيمية والتشريعية أو المدققين في حالة حدوث مشكلة خطيرة، طالما كان القاضي أو المحكم سيضمن للمستهلكين عدالة هذه العملية.

يقوم هذا النهج بكل بساطة بتغيير عبء الثقة في العملية من الخوارزمية نفسها إلى المنظمين والمشرعين. قد يكون هذا الحل مستساغاً في الكثير من المجالات: على سبيل المثال، هناك القليلون منّا يفهمون الأسواق المالية فهماً تاماً، لذلك فإننا نثق في تولي هيئة الأسواق المالية لعملية الإشراف. ولكن هذا يصبح أقل قبولاً، إذ إننا في عالم تُسند فيه القرارات ـ الكبيرة والصغيرة والشخصية والمجتمعية إلى الخوارزميات.

هناك مشكلة أخرى تتعلق بالشفافية التقنية وهي أنّ الشفافية تجعل الخوارزميات عرضة للتلاعب. إذا أصدر المعلم كود المصدر الكامل الخاص بالخوارزمية التي تم على أساسها تقييم مقالات الطلاب، يصبح من السهل على الطلاب استغلال الثغرات في ذلك الكود: ربما، على سبيل المثال، تبحث الخوارزمية عن دليل على أن الطلاب قد قاموا بعمليات بحث من خلال البحث عن عبارات مثل "وفقاً للبحوث المنشورة". ربما يقوم أحد الطلاب بعد ذلك باستخدام هذا الأسلوب اللغوي في بداية كل فقرة في مقالته.

إلا أنّ المشكلة الأكبر تكمن في أن الذكاء الاصطناعي الحديث يجعل كود المصدر – بصرف النظر عن وجود الشفافية من عدمه – أقل أهمية مقارنة بالعوامل الأخرى التي تحكم أداء ووظائف الخوارزمية. وعلى وجه التحديد، فإن خوارزميات تعلم الآلة – وخوارزميات التعلم العميقة على وجه الخصوص – عادة ما تكون مبنية على بضع مئات من سطور الكود. يتم في الغالب التعرف على منطق الخوارزميات من بيانات التدريب ونادراً ما يكون ذلك المنطق موجوداً في كود المصدر الخاص بهذا المنطق. بمعنى أن بعض الخوارزميات الأفضل أداء في وقتنا الحالي غالباً ما تكون الأكثر إبهاماً وبعداً عن الشفافية. قد تنطوي مستويات الشفافية العالية على دخولنا في دوامة لا فكاك منها من كميات هائلة من البيانات – وبعد ذلك لا يكون بمقدورنا إلا أن نخمن الدروس التي تعلمتها الخوارزمية من كل تلك البيانات.

هنا يصبح عمل رينيه ذا صلة وملائماً – وهذه طريقة لتبني التعلم العميق وليس اليأس من عدم إمكانية اختراق التعلم العميق. يوضح عمل رينيه أنّ المستخدمين لن يثقوا في نماذج الصندوق الأسود، لكنهم لا يحتاجون إلى مستويات عالية من الشفافية. وهذا يعني أنه ليس ثمة داع للقلق من جانب الشركات المسؤولة بشأن النسبة المئوية لكود المصدر التي عليها الكشف عنها، أو كيفية مساعدة المستخدمين في "قراءة" مجموعات البيانات الضخمة. بدلاً من ذلك، يتعين على هذه الشركات أن تعمل على توفير رؤى أساسية حول العوامل التي تقود القرارات الخوارزمية.

إمكانية تفسير الذكاء الاصطناعي: طريق التقدم نحو الأمام

يركز أحد الأقسام الأكثر أهمية في النظام الأوروبي لحماية البيانات العامة (GDPR) على الحق في التفسير. وبصفة أساسية، يفرض النظام منح القدرة للمستخدمين على المطالبة بالبيانات وراء القرارات الخوارزمية التي اتخذت بالنسبة لهم، بما في ذلك ما يكون في نظم التوصية، ونظم مخاطر الائتمان والتأمين، والبرامج الإعلانية والدعائية، وشبكات التواصل الاجتماعي. ومن خلال القيام بذلك، فإن النظام الأوروبي لحماية البيانات العامة يتناول "الإخفاء المتعمد" من قبل الشركات. بيد أن النظام لا يعالج التحديات الفنية المرتبطة بالشفافية في الخوارزميات الحديثة. هنا، ربما تبرز الحاجة إلى تلك الحركة المسماة الذكاء الاصطناعي القابل للتفسير (xAI).

تعمل أنظمة الذكاء الاصطناعي القابل للتفسير عن طريق تحليل المدخلات المختلفة التي تستخدمها خوارزمية اتخاذ القرار، وقياس تأثير كل مدخل من المدخلات بشكل فردي وفي مجموعات، وفي النهاية إثبات مجموعة المدخلات التي كان لها أكبر الأثر على القرار النهائي. على سبيل المثال، لو أنه تم تطبيق ذلك النظام على خوارزمية تقييم المقالات، فقد يحلل كيفية تأثير التغييرات في المدخلات المختلفة مثل المحتوى أو عدد الكلمات أو مستوى المفردات المستخدمة أو القواعد اللغوية أو المصادر على التقدير النهائي، وتقديم تفسير يشبه التالي:

  • حصل تيم على 73 درجة على مقاله.
  • تُفسر نسبة 49% من الدرجات التي حصل عليها تيم من خلال مطابقة المحتوى مع المفاهيم الأساسية المدرجة في مفتاح التقييم.
  • وتُفسر نسبة 18% من نتيجته بتجاوز مقال تيم للحد الأدنى لعدد الكلمات وهو ألف كلمة ولكن دون أن يتجاوز الحد الأقصى وهو 1,300 كلمة.
  • وتُفسر نسبة 13% من النتيجة بحقيقة أن مقالة تيم أوردت وثائق مرجعية ذات صلة وملائمة في سياقات مناسبة.
  • يتم تفسير النسبة الباقية من النتيجة التي حققها تيم بعدة عوامل أخرى أقل أهمية

في بعض أبحاثنا المستمرة، نجد أن تحقيق هذا المستوى من الشفافية يأتي في إطار قدرات تعلم الآلة والأساليب الإحصائية في وقتنا الحالي. يمكن أن يساعد هذا النوع من التحليل المهندسين على الالتفاف حول مشكلة الصندوق الأسود – المشكلة التي لا يعرفونها هم أنفسهم دائماً هي ما الذي يحفز قرارات خوارزميات تعلم الآلة لدى المهندسين. ويحدد هذا النوع من التحليل العلاقات بين المدخلات والنتائج، ويحدد مواضع التحيز المحتملة، ويعطي المسارات نحو حل وإصلاح المشكلات. هل سيصل التحليل كذلك، بالنسبة للمستخدمين، إلى نقطة الشفافية المفضلة هذه التي حددها رينيه؟ من السابق لأوانه أن نعرف هذا. في نفس الوقت، يجدر بنا أن نتذكر أن بناء الثقة في تعلم الآلة والتحليلات سيتطلب نظاماً من العلاقات، بحيث يحصل المنظمون والمشرعون، على سبيل المثال، على مستويات عالية من الشفافية، ويقبل المستخدمون مستويات متوسطة من الشفافية. وبحسب رينيه في معرض حديثه عن مدى تأثير الشفافية تجاه المراجعين والمدققين في مقابل المستخدمين على عملية الإقناع يقول أن: "كلا الجانبين مهمان. فإذا حققنا الصواب في جانب واحد من الجانبين دون الآخر، فلن تنجح الشفافية في أن تؤتي ثمارها المرجوة".

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

ﺟﻣﯾﻊ اﻟﺣﻘوق ﻣﺣﻔوظﺔ ﻟﺷرﻛﺔ ھﺎرﻓﺎرد ﺑزﻧس ﺑﺑﻠﯾﺷﻧﻎ، ﺑوﺳطن، اﻟوﻻﯾﺎت اﻟﻣﺗﺣدة اﻷﻣﯾرﻛﯾﺔ - 2019

error: المحتوى محمي !!