ملخص: ليس من السهل معرفة كيفية إدارة أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول اليوم. لكن "مكتب محاسبة الحكومة الأميركية" وضع مؤخراً إطار العمل الأول للحكومة الفيدرالية من أجل المساعدة في ضمان المساءلة والاستخدام المسؤول لأنظمة الذكاء الاصطناعي. يحدد الإطار الشروط الأساسية للمساءلة طوال دورة الحياة الكاملة لأنظمة الذكاء الاصطناعي، من التصميم والتطوير إلى الاستخدام والمراقبة، ويعرض أسئلة محددة للقادة والمؤسسات يمكنهم طرحها، وكذلك إجراءات التدقيق التي يمكن استخدامها عند تقييم أنظمة الذكاء الاصطناعي.
عندما يتعلق الأمر بإدارة أنظمة الذكاء الاصطناعي، هناك ما يكفي من المبادئ والمفاهيم التي تهدف إلى دعم الاستخدام العادل والمسؤول. لكن غالباً ما تقع المؤسسات وقادتها في حيرة عند مواجهة أسئلة صعبة حول كيفية إدارة أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول اليوم.
لهذا السبب، في "مكتب محاسبة الحكومة الأميركية" وضعنا مؤخراً إطار العمل الأول للحكومة الفيدرالية من أجل المساعدة في ضمان المساءلة والاستخدام المسؤول لأنظمة الذكاء الاصطناعي. يحدد الإطار الشروط الأساسية للمساءلة طوال دورة الحياة الكاملة لأنظمة الذكاء الاصطناعي، من التصميم والتطوير إلى الاستخدام والمراقبة. كما يعرض أسئلة محددة يمكن طرحها وإجراءات التدقيق التي يمكن استخدامها عند تقييم أنظمة الذكاء الاصطناعي على صعيد الأبعاد الأربعة التالية: 1) الحوكمة 2) البيانات 3) الأداء 4) المراقبة.
كان هدفنا من القيام بهذا العمل هو مساعدة المؤسسات والقادة على الانتقال من النظريات والمبادئ إلى الممارسات التي يمكن استخدامها فعلياً من أجل إدارة أنظمة الذكاء الاصطناعي وتقييمها على أرض الواقع.
فهم دورة الحياة الكاملة لأنظمة الذكاء الاصطناعي
في كثير من الأحيان، يتم طرح الأسئلة المتعلقة بالرقابة على أحد أنظمة الذكاء الاصطناعي بعد بنائه واستخدامه بالفعل. لكن هذا لا يكفي، إذ يجب تقييم نظام الذكاء الاصطناعي أو نظام تعلم الآلة في كل مرحلة من دورة حياته. سيساعد هذا في تحديد المشكلات على مستوى النظام التي يمكن عدم ملاحظتها في أثناء تقييم "نقطة زمنية" محددة بدقة.
بناءً على البحوث التي أجرتها "منظمة التعاون الاقتصادي والتنمية" (OECD) وغيرها، لاحظنا أن المراحل المهمة في دورة حياة نظام الذكاء الاصطناعي تشمل:
التصميم: توضيح غايات النظام وأهدافه، بما في ذلك أي افتراضات أساسية ومتطلبات الأداء العامة.
التطوير: تحديد المتطلبات التقنية وجمع البيانات ومعالجتها وبناء النموذج والتحقق من صحة النظام.
الاستخدام: التجربة والتحقق من مدى التوافق مع الأنظمة الأخرى وضمان الامتثال للقواعد التنظيمية وتقييم تجربة المستخدم.
المراقبة: التقييم المستمر لمخرجات النظام وآثاره (سواء المبتغاة أو غير المقصودة) وتحسين النموذج واتخاذ القرارات لتوسيع نطاق النظام أو إلغائه.
هذه النظرة إلى الذكاء الاصطناعي تشبه نهج دورة الحياة المستخدم في تطوير البرمجيات. وكما أشرنا في عمل منفصل حول التطوير وفق منهجية "أجايل"، ينبغي للمؤسسات وضع أنشطة مناسبة قائمة على نهج دورة الحياة بحيث تدمج التخطيط والتصميم والبناء والاختبار لقياس التقدم المحرز وتقليل المخاطر والاستجابة للتعليقات الواردة من أصحاب المصلحة باستمرار.
تضمين مجتمع أصحاب المصلحة بأكمله
في جميع مراحل دورة حياة نظام الذكاء الاصطناعي، من المهم الجمع بين المجموعة المناسبة من أصحاب المصلحة. فهناك حاجة إلى بعض الخبراء لتقديم مدخلات حول الأداء التقني للنظام. ويمكن أن يشتمل أصحاب المصلحة التقنيون هؤلاء على علماء بيانات ومطوري برمجيات ومتخصصين في الأمن السيبراني ومهندسين.
لكن المجتمع الكامل لأصحاب المصلحة لا يحتاج إلى خبراء تقنيين فقط، بل هناك حاجة أيضاً إلى أصحاب المصلحة الذين يمكنهم التحدث عن التأثير المجتمعي لتطبيق نظام ذكاء اصطناعي معين. ويمكن أن يكون أصحاب المصلحة الإضافيين هؤلاء من الخبراء السياسيين والقانونيين والخبراء بالمجال ومستخدمي النظام، والأهم منهم، الأفراد المتأثرين بنظام الذكاء الاصطناعي.
يلعب جميع أصحاب المصلحة دوراً أساسياً في ضمان أن يتم تحديد الشواغل الأخلاقية والقانونية والاقتصادية والاجتماعية المتعلقة بنظام الذكاء الاصطناعي وتقييمها وتبديدها. وتُعد المدخلات المقدمة من مجموعة واسعة من أصحاب المصلحة، التقنيين وغير التقنيين، خطوة أساسية للمساعدة في تلافي العواقب أو التحيزات غير المتعمدة في نظام الذكاء الاصطناعي.
4 أبعاد للمساءلة في أنظمة الذكاء الاصطناعي
نظراً لأن المؤسسات والقادة والمقيّمين من الأطراف الثالثة يركزون على المساءلة على مدار دورة الحياة الكاملة لأنظمة الذكاء الاصطناعي، فهناك 4 أبعاد يجب مراعاتها: الحوكمة والبيانات والأداء والمراقبة. وفي كل بُعد، ثمة إجراءات مهمة يجب اتخاذها وأشياء يجب البحث عنها.
تقييم هياكل الحوكمة. يجب أن تشتمل بيئة العمل الصحية لإدارة أنظمة الذكاء الاصطناعي على عمليات وهياكل حوكمة. فالحوكمة المناسبة للذكاء الاصطناعي يمكن أن تساعد في إدارة المخاطر وإظهار القيم الأخلاقية وضمان الامتثال. المساءلة في مجال الذكاء الاصطناعي تعني البحث عن دليل قوي على الحوكمة على المستوى التنظيمي، بما في ذلك وجود أهداف وغايات واضحة لنظام الذكاء الاصطناعي، وأدوار ومسؤوليات ومستويات سلطة محددة جيداً، وقوة عمل متعددة التخصصات قادرة على إدارة أنظمة الذكاء الاصطناعي، ومجموعة واسعة من أصحاب المصلحة، وعمليات لإدارة المخاطر. بالإضافة إلى ذلك، من الضروري البحث عن عناصر الحوكمة على مستوى النظام، مثل المواصفات التقنية الموثقة لنظام الذكاء الاصطناعي المعين والامتثال للقواعد وإمكانية وصول أصحاب المصلحة إلى تصميم النظام ومعلومات التشغيل.
فهم البيانات. يعرف معظمنا الآن أن البيانات هي شريان الحياة للكثير من أنظمة الذكاء الاصطناعي وتعلم الآلة. لكن البيانات نفسها التي تمنح أنظمة الذكاء الاصطناعي قوتها يمكن أن تكون أيضاً نقطة ضعف. لذا، من المهم توثيق طريقة استخدام البيانات في مرحلتين مختلفتين من النظام: عند استخدامها لبناء النموذج الأساسي وفي أثناء التشغيل الفعلي لنظام الذكاء الاصطناعي. فالإشراف الجيد على أنظمة الذكاء الاصطناعي يتضمن توثيق مصادر البيانات المستخدمة وأصولها لتطوير نماذج الذكاء الاصطناعي. ويجب الاهتمام أيضاً بالمشكلات التقنية المتعلقة باختيار المتغيرات واستخدام البيانات المعدلة. كما يجب التحقق من موثوقية البيانات وطابعها التمثيلي، بما في ذلك احتمالات التحيز أو أوجه عدم المساواة أو الاهتمامات المجتمعية الأخرى. تشمل المساءلة أيضاً تقييم أمان وخصوصية بيانات نظام الذكاء الاصطناعي.
تحديد أهداف الأداء ومقاييسه. بعد تطوير نظام ذكاء اصطناعي واستخدامه، من المهم ألا نغفل عن هذين السؤالين: "لماذا أنشأنا هذا النظام في المقام الأول؟" و"كيف نعرف أنه يعمل بنجاح؟". تتطلب الإجابة عن هذين السؤالين المهمين توثيقاً محكماً للهدف المعلن لنظام الذكاء الاصطناعي بالإضافة إلى تعريفات مقاييس الأداء والطرق المستخدمة لتقييم هذا الأداء. ويجب أن تكون الإدارة والأشخاص الذين يقيّمون هذه الأنظمة قادرين على ضمان أن يلبي تطبيق الذكاء الاصطناعي أهدافه المنشودة. ومن المهم للغاية أن تُجرى تقييمات الأداء هذه على مستوى النظام واسع النطاق، وأن تركز أيضاً على العناصر الفردية التي تدعم النظام بأكمله وتتفاعل معه.
مراجعة خطط المراقبة. لا ينبغي النظر إلى نظام الذكاء الاصطناعي على أنه نظام يتم ضبطه فحسب دون الحاجة إلى مراقبته. صحيح أن الكثير من فوائد أنظمة الذكاء الاصطناعي تنبع من قدرته على أتمتة مهمات معينة، غالباً على نطاق وسرعة تفوق قدرة البشر. ولكن، في الوقت نفسه، من الضروري أن يراقب الأشخاص الأداء باستمرار. ويتضمن ذلك إنشاء مجموعة من النماذج المقبولة للانحراف في الأداء، والمراقبة المستمرة لضمان أن يحقق النظام النتائج المتوقعة. ويجب أن تتضمن المراقبة طويلة المدى أيضاً تقييمات لما إذا كانت بيئة التشغيل قد تغيرت وإلى أي مدى تدعم الظروف تحسين النظام أو توسيع نطاقه ليشمل إعدادات تشغيلية أخرى. تتعلق الأسئلة المهمة الأخرى التي يجب طرحها بما إذا كان نظام الذكاء الاصطناعي لا يزال بحاجة إلى تحقيق الأهداف المرجوة، وما المقاييس اللازمة لتحديد متى يجب إلغاء نظام معين.
فكّر كأنك مدقق
يستند إطار عملنا إلى المعايير الحالية لتدقيق الحسابات الحكومية والمراقبة الداخلية. وهذا يتيح للمؤسسات الاستفادة من ممارسات التدقيق والأسئلة الواردة به من خلال موارد المساءلة والرقابة الحالية التي يمكنها الوصول إليها بالفعل. كُتب إطار العمل أيضاً بأسلوب بسيط بحيث يمكن للمستخدمين غير التقنيين تطبيق مبادئه وممارساته عند التفاعل مع الفِرق التقنية. وفي حين أن عملنا يركز على المساءلة في سياق استخدام الحكومة لأنظمة الذكاء الاصطناعي، يمكن تكييف النهج وإطار العمل بسهولة مع القطاعات الأخرى.
يُبرز إطار العمل الكامل أسئلة محددة وإجراءات تدقيق تغطي الأبعاد الأربعة الموضحة أعلاه (الحوكمة والبيانات والأداء والمراقبة). ويمكن للمسؤولين التنفيذيين ومدراء المخاطر والعاملين في مجال التدقيق، وأي شخص تقريباً يسعى إلى إدماج المساءلة في أنظمة الذكاء الاصطناعي التي تستخدمها المؤسسات، البدء على الفور في استخدام إطار العمل هذا لأنه يحدد ممارسات التدقيق فعلياً ويقدم أسئلة ملموسة يجب طرحها عند تقييم أنظمة الذكاء الاصطناعي.
عندما يتعلق الأمر ببناء المساءلة في صميم أنظمة الذكاء الاصطناعي، فلن يضرك أبداً التفكير كمدقق.