يتمثل أحد أكبر مصادر القلق من الذكاء الاصطناعي في عدم قدرتنا على فهم طريقة عمله ببساطة، لا في أنه سينقلب علينا. قد تبدو لنا الحلول عبارة عن "ذكاء اصطناعي غير قابل للتفسير" عندما تتعلق بالنظم الفاسدة التي تتحيز ضد المرأة في طلبات الائتمان أو التي تقدم توصيات عنصرية في الأحكام الجنائية أو التي تقلل من عدد المرضى السود الذين تتم تسميتهم لحاجتهم إلى رعاية طبية إضافية. ولكن في بعض الأحيان، تكون أهمية معرفة سبب اتخاذ الخوارزمية قراراً ما مساوية لأهمية القدرة على طرح السؤال عما تم تطويرها لأجله في المقام الأول.

خلال شهر رمضان المبارك فقط: استفد من خصم 30% على الاشتراكات الرقمية السنوية والنصف سنوية

غالباً ما توصف خوارزميات تعلم الآلة بأنها "صندوق أسود"، لأنها تشبه نظاماً مغلقاً يأخذ المدخلات وينتج المخرجات من دون أي تفسير للسبب. ولكن معرفة "السبب" ضرورية بالنسبة لعديد من القطاعات، بالأخص التي تلتزم بالأمانة المهنية مثل تمويل المستهلك، أو في قطاعي الرعاية الصحية والتعليم، إذ يرتبطان بأرواح ضعيفة، أو في قطاعات التطبيقات العسكرية أو الحكومية حيث يجب أن تكون قادراً على تبرير قراراتك للناخبين.

لسوء الحظ، يصبح التفسير صعباً عندما يتعلق الأمر بمنصات التعلم العميق. وفي حالات كثيرة، تكمن جاذبية تعلم الآلة في قدرته على العثور على أنماط تتحدى المنطق أو الحدس. وإذا تمكنت من تحديد علاقة بين المدخلات والنتائج لشرحها ببساطة كافية، فعلى الأرجح أنك لست بحاجة إلى تعلم الآلة في هذا السياق على الإطلاق. وعلى عكس النظام الذي تمت برمجته يدوياً، لا يمكنك النظر ببساطة داخل شبكة عصبية ومعرفة طريقة عملها. إذ تتكون الشبكة العصبية من آلاف الخلايا العصبية الزائفة، مرتبة في طبقات مترابطة تستقبل كل منها إشارات المدخلات وتورد النتائج التي يتم إدخالها بعد ذلك إلى الطبقة التالية، وهكذا حتى يتم التوصل إلى النتيجة النهائية. حتى لو تمكنت من تفسير طريقة عمل النموذج من الناحية الفنية بطريقة يمكن لعالم الذكاء الاصطناعي فهمها، إلا أن شرح ذلك "لصانع القرار المدني" يمثل مشكلة مختلفة تماماً.

خذ مثلاً منصة "ديب بيشنت" (Deep Patient)، وهي منصة للتعلم العميق في مستشفى "ماونت سيناي" (Mount Sinai) في نيويورك. فقد تم تدريبها باستخدام السجلات الصحية الإلكترونية لقرابة 700,000 شخص، وأصبحت بارعة في التنبؤ بالأمراض واكتشاف الأنماط المخفية في بيانات المستشفى، وتمكنت بذلك من تقديم تحذيرات مبكرة للمرضى المعرضين لخطر الإصابة بمجموعة متنوعة واسعة من الأمراض، بما فيها سرطان الكبد، من دون توجيه بشري.

ومن ثم أثارت منصة "ديب بيشنت" دهشة الجميع عندما أظهرت أيضاً القدرة على التنبؤ بظهور بعض الاضطرابات النفسية مثل انفصام الشخصية، والتي تعرف بصعوبة تنبؤ الأطباء بها. والتحدي الذي يواجه الأطباء في مثل هذا السيناريو هو تحقيق التوازن بين الاعتراف بفعالية النظام وقيمته، وتحديد مقدار الثقة التي يجب منحه إياها، نظراً لعدم فهمهم له أو لطريقة عمله تماماً.

تستثمر بعض المؤسسات والقطاعات في القدرة على تدقيق أنظمة تعلم الآلة وشرحها. وحالياً، تمول وكالة مشاريع البحوث المتطورة الدفاعية (داربا) (DARPA) برنامجاً يسمى "الذكاء الاصطناعي القابل للتفسير" (Explainable AI)، وهو يهدف إلى تفسير التعلم العميق الذي يعزز الطائرات ذاتية القيادة (درون) وعمليات التنقيب عن المعلومات. كما أنشأت شركة "كابيتال وان" (Capital One)، التي واجهت مشاكل خطيرة فيما يتعلق بانتهاك البيانات، فريق بحث مكرس للعثور على طرق لجعل التعلم العميق قابلاً للتفسير أكثر، لأن القوانين الأميركية تطالب هذا النوع من الشركات بشرح قرارات مثل رفض بطاقة ائتمان عميل مرتقب.

من المحتمل أن تصبح قوانين الخوارزميات أكثر تعقيداً في الأعوام القليلة المقبلة، إذ يزداد إعلان الشعب عن قلقه بشأن تأثير الذكاء الاصطناعي على حياته. على سبيل المثال، بموجب التشريعات العامة لحماية البيانات (GDPR) التي دخلت حيز التنفيذ في عام 2018، يطالب الاتحاد الأوروبي الشركات بأن تكون قادرة على تفسير أي قرار تتخذه إحدى خوارزمياتها. يمكن القول أنك في المستقبل القريب لن تكون قادراً على تصميم أي نوع من الذكاء الاصطناعي من دون وجود فريق من كبار العلماء بالإضافة إلى فريق بذات الكفاءة من مهندسي الخصوصية والمحامين.

المساءلة هي الأساس المنطقي الذي تقوم عليه قوانين الخوارزميات. ولا يقتصر جعل الذكاء الاصطناعي أكثر قابلية للتفسير على طمأنة القادة فيما يتعلق بإمكانية الوثوق بالقرارات الخوارزمية فحسب، بل يتعلق أيضاً بإتاحة السبل للناس للاعتراض على القرارات القائمة على الذكاء الاصطناعي. في الواقع، لا تنطبق مسألة شفافية الخوارزمية على التعلم الآلي فحسب، وإنما على أي خوارزمية تبقى أعمالها الداخلية طي الكتمان أيضاً.

ويتم الاعتراض في المحاكم بالفعل على الخوارزميات التي يبدو أنها منحازة أو غامضة في طريقة عملها. على سبيل المثال، في عام 2014، أقام اتحاد المعلمين في هيوستن دعوى قضائية ضد منطقة هيوستن التعليمية، بحجة الاستخدام غير العادل لخوارزمية سرية تحدد طريقة تقييم المعلمين وطردهم ومكافأتهم. طورت شركة خاصة هذا النظام، وقد صنفت خوارزميتها على أنها سراً تجارياً ورفضت مشاركتها مع المعلمين. وقال المعلمون أنهم لا يعرفون كيف يتم تسجيل نقاطهم، فحرموا بذلك من حق الاعتراض على إنهاء خدمتهم أو تقييماتهم. رأت إحدى محاكم الدوائر أن البرنامج غير المبرر انتهك حق المعلمين في اتباع الإجراءات القانونية المستحقة وفق التعديل الرابع عشر، وتمت تسوية القضية في نهاية المطاف عام 2016 بإيقاف استخدام الخوارزمية. ومن المتوقع أن يرتفع عدد هذه التحديات في الأعوام القليلة المقبلة.

ولكن بالنسبة للقادة، قد لا يكون السؤال الأهم الذي يجب طرحه على الفرق التي تقوم بتصميم حلول آلية وبنائها هو: لماذا توصلت هذه الحلول إلى قرار معين؟ وإنما: ما الهدف من تطوير هذه الحلول؟ الفوائد القصوى مهمة، ولكن، هناك تجربة فكرية كلاسيكية اقترحها الفيلسوف السويدي نيك بوستروم تدعى "زيادة مشابك الورق إلى الحد الأقصى"(Paperclip Maximizer). وهو يصف كيف يمكن أن يصل الذكاء الاصطناعي إلى تدمير العالم بعد أن يتم تحديد هدفه المتمثل في تصنيع مشابك الورق بأكبر قدر ممكن من الكفاءة، "ونتيجة لذلك، يبدأ في تحويل الأرض بأكملها أولاً ثم أجزاء متزايدة من الفضاء إلى معامل لتصنيع مشابك الورق".

ولكن الذكاء الاصطناعي في بحث بوستروم ليس شريراً في جوهره، وإنما، برأيه، حُدد له هدف خاطئ ببساطة دون وجود قيود. يمكن أن تؤدي الأهداف أو الفوائد القصوى الخاطئة إلى الكثير من الضرر غير المقصود. على سبيل المثال، تم إلغاء برنامج الذكاء الاصطناعي الذي يضع الجداول المدرسية وجداول الحافلات في بوسطن بعد اعتراض الآباء والأمهات العاملين وغيرهم على عدم أخذه جداولهم في الاعتبار، وأنه يركز على الكفاءة على حساب التعليم على ما يبدو. ولكن هل كان ذلك خطأ البرنامج؟ لقد تمت برمجته بهدف البحث عن طرق لتوفير المال على أي حال. ومع ذلك، وعلى عكس تعقيدات بناء نموذج ذكاء اصطناعي وتفسيره، فإن مناقشة الهدف من تطوير النظام وتحديده يقعان بلا شك ضمن مجموعة قدرات قادة الشركات ومجالسها، وهذا ما يجب أن يكون.

الذكاء الاصطناعى هو أداة تعكس أولوياتنا كمؤسسات وحكومات. قد يبدو من القسوة مناقشة الوفيات البشرية في حوادث السير أو مكان العمل كإحصاءات، ولكن إذا قررنا أنه يجب تصميم نظام الخوارزميات بهدف تقليل الحوادث ككل، فيجب علينا أيضاً الحكم على أي ضرر ينتج عنه في سياق النظام الذي يحل محله. ولكن عند القيام بذلك، سيتعين علينا أيضاً أن نكون مستعدين أن يُحكم علينا، وأن نكون مستعدين لتبرير قراراتنا ومبادئ التصميم التي نتبعها.

سيعارض أصحاب المصالح والزبائن والمشرعون القادة بشأن الأهداف التي يطورون أنظمتهم لأجلها، وستكون هناك دعاوى قضائية تطالب بالكشف عن القرارات الإنسانية الكامنة وراء تصميم نظم الذكاء الاصطناعي، وعن المخاوف الأخلاقية والاجتماعية التي أخذتها في الاعتبار، والأصول والأساليب التي تم اقتناء بيانات التدريب وفقها، ودرجة جودة مراقبة نتائج هذه النظم تقفياً لآثار التحيز أو التمييز. ولذلك، وثّق قراراتك بعناية واحرص على أن تتمكن من فهم عمليات الخوارزميات في قلب شركتك، أو الوثوق بها على أقل تقدير.

مجرد القول بأن منصة الذكاء الاصطناعي الخاصة بك ما هي إلا صندوق أسود لا يمكن لأحد فهمه لن يكون دفاعاً قانونياً مقنعاً في القرن الواحد والعشرين، لأنك ستبدو وكأنك تقول: "لقد دفعتني الخوارزمية لفعل ذلك".

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

ﺟﻣﯾﻊ اﻟﺣﻘوق ﻣﺣﻔوظﺔ ﻟﺷرﻛﺔ ھﺎرﻓﺎرد ﺑزﻧس ﺑﺑﻠﯾﺷﻧﻎ، ﺑوﺳطن، اﻟوﻻﯾﺎت اﻟﻣﺗﺣدة اﻷﻣﯾرﻛﯾﺔ - 2020

اترك تعليق

قم بـ تسجيل الدخول لتستطيع التعليق
avatar
  شارك  
التنبيه لـ
error: المحتوى محمي !!