في السنوات الأخيرة، دعا الأكاديميون والممارسون على حد سواء إلى حل مشكلة الشفافية في عصر الذكاء الاصطناعي لإيجاد مزيد من الشفافية في طرق العمل الداخلية لنماذج الذكاء الاصطناعي ويعود ذلك إلى الكثير من الأسباب الجيدة. إذ من شأن الشفافية أن تساعد في التخفيف من المشاكل المتعلقة بالنزاهة والتمييز في المعاملة والثقة، والتي حظيت جميعها باهتمام متزايد. على سبيل المثال، اتُّهمت شركة بطاقات الائتمان الجديدة التابعة لشركة "آبل" بنماذج إقراض متحيزة ضد المرأة، بينما ألغت شركة "أمازون" أداة ذكاء اصطناعي مخصصة للتوظيف بعد اكتشاف تحيزها ضد المرأة.
لكن في الوقت نفسه، بات من الواضح أن عمليات الإفصاح عن الذكاء الاصطناعي تنطوي على مخاطر خاصة بها: إذ يمكن اختراق التفسيرات كما أن إصدار معلومات إضافية قد يجعل الذكاء الاصطناعي أكثر عرضة للهجمات، ويمكن لعمليات الإفصاح أن تجعل الشركات أكثر عرضة للدعاوى القضائية أو الإجراءات التنظيمية.
مفارقة الشفافية في عصر الذكاء الاصطناعي
يُسمى هذا بـ "مفارقة شفافية" الذكاء الاصطناعي، إذ بينما قد يُحقق توليد مزيد من المعلومات حول الذكاء الاصطناعي فوائد حقيقية، فقد يخلق أيضاً مخاطر جديدة. للتعامل مع هذه المفارقة، سيتعين على المؤسسات التفكير ملياً في طريقة إدارتها لمخاطر الذكاء الاصطناعي، والمعلومات التي تولدها حول هذه المخاطر، وكيفية مشاركة هذه المعلومات وحمايتها.
وتوضح بعض الدراسات الحديثة هذه التوجهات. لنبدأ بورقة بحث قدمها باحثون في كلية "هارفارد للأعمال" ونشرتها جامعة "كاليفورنيا، إرفاين" في شهر نوفمبر/تشرين الثاني. ركزت ورقة البحث على طريقة اختراق متغيرات "لايم" (LIME) و"شاب" (SHAP)، وهما تقنيتان شائعتان تستخدمان لتفسير ما يسمى بخوارزميات الصندوق الأسود.
ولتوضيح فاعلية تقنية "لايم"، فسرت ورقة البحث الصادرة عام 2016 والتي أعلنت عن الأداة، كيف تعرف مُبوب الصور المبهمة المغاير على أشياء مختلفة في الصورة: إذ حُدد غيتار صوتي بوساطة مشطه وأجزاء من لوحة الأصابع، بينما حُدد كلب من فصيلة "لابرادور ريتريفر" بوساطة ملامح وجه محددة على الجانب الأيمن من وجه الكلب.
أُشيد بتقنية "لايم" وحركة الذكاء الاصطناعي القابلة للتوضيح عموماً باعتبارهما اكتشافات قادرة على جعل الخوارزميات الغامضة أكثر شفافية. وفي الواقع، كانت فائدة تفسير الذكاء الاصطناعي أمراً مقبولاً على نطاق واسع، حيث روج لها العلماء والتقنيون على حد سواء وأنا من ضمنهم.
لكن يُسلط احتمال وقوع هجمات جديدة على تقنيتي "لايم" و"شاب" الضوء على جانب سلبي مُغفل. وكما تُبين الدراسة، يمكن التلاعب بالتفسيرات عن قصد، ما يؤدي إلى فقدان الثقة لا في النموذج وحده فقط، بل في تفسيراته أيضاً.
ولا يقتصر الأمر على هذا البحث الذي يوضح المخاطر المحتملة لشفافية الذكاء الاصطناعى. إذ وضح رضا شكري وزملاؤه في وقت سابق من العام 2019 كيف يمكن لكشف معلومات حول خوارزميات التعلم الآلي أن يجعلها أكثر عرضة للهجمات. وفي الوقت الحالي، أثبت باحثون في جامعة "كاليفورنيا بيركلي" أنه يمكن سرقة الخوارزميات بأكملها بالاستناد إلى تفسيراتها وحدها ببساطة.
ونظراً إلى تركيز الباحثين في مجال الأمن والخصوصية مزيداً من الجهود على الذكاء الاصطناعي، تشير هذه الدراسات إلى جانب مجموعة كبيرة من الدراسات الأخرى إلى نفس الاستنتاج ومفاده: كلما زاد ما يكشفه مخترعو النماذج عن الخوارزمية، زاد الضرر الذي يمكن أن يسببه أصحاب النوايا الخبيثة. ويعني هذا أن كشف معلومات طرق العمل الداخلية للنموذج قد تقلّل في الواقع من أمانه أو تُعرض الشركة إلى هذا، يعني أن نشر معلومات حول الأعمال الداخلية للنموذج قد يقلل في الواقع حمايته أو يعرّض الشركة لتبعات أكبر. وباختصار، تنطوي جميع البيانات على مخاطر.
ما هي الأخبار السارة؟ لطالما واجهت المؤسسات مفارقة الشفافية في مجالات الخصوصية والأمن والمجالات الأخرى. وعليها فقط تحديث أساليب الذكاء الاصطناعي التي تنتهجها.
ولتبدأ بذلك، يتعين على الشركات التي تحاول استخدام الذكاء الاصطناعي أن تدرك وجود تكاليف مرتبطة بالشفافية. وليس القصد من ذلك بالطبع أن الشفافية لا تستحق تحقيقها، بل إنها تفرض ببساطة جوانب سلبية يجب أن تُفهم بالكامل. يجب دمج هذه التكاليف في نموذج مخاطر أوسع يدير طريقة التعامل مع النماذج القابلة للتفسير ومدى توافر المعلومات عن النموذج للآخرين.
ثانياً، يجب أن تدرك المؤسسات أيضاً أن الأمن قد أصبح يثير قلقاً متزايداً في عالم الذكاء الاصطناعي. ومع اعتماد الذكاء الاصطناعي على نطاق أوسع، فمن المؤكد أن المزيد من الثغرات والأخطاء الأمنية ستُكتشف وفقاً لما ذكرته أنا وزملائي في "منتدى مستقبل الخصوصية" (the Future of Privacy Forum). وقد يُشكل الأمن بالطبع أحد أكبر العوائق طويلة الأجل التي تحول دون اعتماد الذكاء الاصطناعي.
وأخيراً، تأتي أهمية التعاون مع المحامين في أقرب وقت ممكن وكلما كان ذلك ممكناً عند إنشاء الذكاء الاصطناعي ونشره. وقد يسهّل إشراك الإدارات القانونية تهيئة بيئة مفتوحة تتمتع بالحصانة القانونية، ما يسمح للشركات بسبر نماذجها بدقة بحثاً عن كل ثغرة أمنية يمكن تصورها دون خلق التزامات إضافية.
في الواقع، هذا بالضبط هو السبب الذي يجعل المحامين يعملون بموجب حصانة قانونية، ما يجعل المعلومات التي يجمعونها تتمتع بالحماية ويحفز العملاء على إدراك مخاطرهم بالكامل بدلاً من إخفاء أي مخالفات محتملة. في مجال الأمن السيبراني، مثلاً، أصبح المحامون ضالعين إلى درجة أنه من الشائع أن تدير الإدارات القانونية عمليات تقييم المخاطر وأنشطة الاستجابة للحوادث بعد حدوث الخرق حتى. ويجب أن ينطبق النهج نفسه على الذكاء الاصطناعي.
في عالم تحليلات البيانات، يُفترض غالباً أنه من الأفضل وجود مزيد من البيانات. لكن في مجال إدارة المخاطر، غالباً ما تكون البيانات نفسها مصدراً للمسؤولية. ولقد بدأ ذلك ينطبق على الذكاء الاصطناعي أيضاً، ولهذا علينا حل مشكلة الشفافية في عصر الذكاء الاصطناعي.
اقرأ أيضاً: