دليل لإدارة المخاطر.
يشير تعلم الآلة إلى برامج الكمبيوتر التي تجمع المعلومات الجديدة ثم تغير طريقتها في اتخاذ القرارات. لكن، ماذا يحدث عندما يؤدي تعلم الآلة إلى خسارة الاستثمارات والتحيز في تعيين الموظفين أو إعطاء القروض أو عندما تؤدي إلى حوادث السيارات؟ هل على الشركات السماح لمنتجاتها وخدماتها الذكية بالتطور تلقائياً وبصورة مستقلة، أم عليها أن تمنع التطور التلقائي لخوارزمياتها وتجري تحديثات دورية عليها؟ إذا اختارت الشركات الخيار الثاني، فمتى يجب أن تتم أعمال التحديث هذه، وكم مرة؟ وكيف يجب على الشركات تقييم المخاطر الناجمة عن هذه الخيارات وغيرها والحدّ منها؟
في عالم الأعمال والشركات، ومع تغلغل الذكاء الاصطناعي القائم على تعلم الآلة في مزيد من المنتجات المعروضة والعمليات، يجب أن يكون المسؤولون التنفيذيون وأعضاء مجالس الإدارة مستعدين للإجابة عن هذه الأسئلة. في هذه المقالة، التي تعتمد على عملنا في قانون قطاع الرعاية الصحية وأخلاقياته وتشريعاته وتعلم الآلة فيه، نقدم مفاهيم أساسية تساعد على فهم الجوانب السلبية المحتملة لهذه التقنيات المتقدمة وإدارتها.
فكرة المقالة باختصار
المشكلة
تنتشر عروض الأنظمة القائمة على تعلم الآلة، ما يثير مخاطر جديدة مختلفة تواجهها الشركات التي تطور هذه الأنظمة أو تستخدمها أو تمدها ببيانات التدريب. وهذا لأن هذه الأنظمة لا تتخذ قرارات أخلاقية أو خيارات صحيحة دائماً.
الأسباب
أولاً، يصنع النظام القرارات عادة بناء على الاحتمالات. ثانياً، من الممكن أن تتطور بيئات هذه الأنظمة بطريقة غير متوقعة. ثالثاً، يؤدي تعقيدها إلى زيادة صعوبة تحديد ما إذا كانت قد ارتكبت خطأ أم لا.
الحلول
يجب على المسؤولين التنفيذيين تحديد ما إذا كانوا سيسمحون للنظام بتطوير نفسه باستمرار أو سيعملون على تقديم نسخ غير قابلة للتطور التلقائي بصورة دورية. بالإضافة إلى ضرورة أن تختبر الشركات تلك الأنظمة بما يكفي قبل طرحها في الأسواق وبعدها، ومراقبتها باستمرار بعد طرحها.
ما هو سبب خطورة تعلم الآلة؟
الفرق الكبير بين تعلم الآلة والتقنيات الرقمية التي سبقته هو قدرته على اتخاذ قرارات متزايدة التعقيد بصورة مستقلة، كاختيار المنتجات المالية التي يمكن مداولتها ورد فعل السيارات في مواجهة العوائق ومعرفة ما إذا كان المريض يعاني من مرض ما، وتكييف استجابتها مع البيانات الجديدة باستمرار. لكن هذه الخوارزميات لا تعمل بسلاسة دائماً، ولا تتخذ قرارات أخلاقية أو صحيحة دائماً، ولهذه المشكلة 3 أسباب أساسية.
أولها هو ببساطة أن الخوارزميات تعتمد عادة على احتمال أن الشخص سيتأخر عن سداد القرض أو سيكون مصاباً بمرض ما. ولأن هذه الخوارزميات تقوم بكثير من عمليات التوقع، فعلى الأرجح سيكون بعضها مخطئاً ببساطة بسبب الاحتمال الدائم بأنها ستخطئ. ويعتمد احتمال وقوع الأخطاء على كثير من العوامل، وهي تشمل كمية البيانات المستخدمة في تدريب الخوارزميات وجودتها، ونوع أسلوب تعلم الآلة الذي تم اختياره تحديداً (كالتعلم العميق الذي يستخدم نماذج حسابية معقدة، في مقابل أقسام التصنيف التي تعتمد على قواعد اتخاذ القرارات)؛ واستخدام النظام خوارزميات قابلة للتفسير فقط (أي أن البشر قادرون على فهم الطرق التي أوصلتهم إلى قراراتهم بوضوح)، الأمر الذي قد لا يسمح للخوارزميات بزيادة صحة قراراتها إلى حدها الأقصى.
ثانياً، قد تتطور البيئة التي يعمل ضمنها نظام تعلم الآلة أو تختلف عن البيئة التي أعدت الخوارزميات لمواجهتها. وعلى الرغم من احتمال أن يحدث ذلك بعدة طرق، فإن أكثر الطرق تكراراً هي انحراف المفاهيم وتبدل المتغيرات.
في الأولى، لا تكون العلاقة بين المدخلات التي يستخدمها النظام ومخرجاته ثابتة مع مرور الوقت أو قد يتم تحديدها على نحو خاطئ. خذ مثلاً خوارزمية قائمة على تعلم الآلة تستخدم في تداول الأسهم. إذا تم تدريبها باستخدام البيانات المأخوذة من فترة كان تقلب السوق فيها منخفضاً والنمو الاقتصادي مرتفعاً، فقد لا تتمكن من تقديم أداء جيد عندما يدخل النظام الاقتصادي في فترة ركود أو يشهد اضطراباً، كما هو الحال في أزمة جائحة كوفيد-19. ومع تغير السوق، تتغير العلاقة بين المدخلات والمخرجات أيضاً، كالعلاقة بين حجم الرفع المالي في شركة ما وعائدات أسهمها، على سبيل المثال. قد يحدث اختلاف مشابه في نماذج احتساب الجدارة الائتمانية في مراحل مختلفة من الدورة الاقتصادية.
نرى في مجال الطب مثالاً عن انحراف المفاهيم في نظام تشخيص قائم على تعلم الآلة يستخدم صوراً للجلد كمدخلات في تحري الإصابة بسرطان الجلد، عندما يفشل النظام في القيام بعمليات تشخيص صحيحة بسبب عدم قدرته على تحديد العلاقة بين لون بشرة شخص ما مثلاً (الذي يمكن أن يختلف باختلاف العرق أو التعرض للشمس) وقرار التشخيص. وغالباً، لا تتوفر هذه المعلومات في بيانات السجلات الصحية الإلكترونية المستخدمة في تدريب نموذج تعلم الآلة.
أما تبدل المتغيرات فيحدث عندما تختلف البيانات التي يتم إدخالها إلى الخوارزمية في أثناء استخدامها عن البيانات التي تم تدريب هذه الخوارزمية عليها. ومن الممكن أن يحدث ذلك حتى وإن كانت الأنماط التي تعلمتها الخوارزمية ثابتة ولم تشهد انحرافاً للمفاهيم. على سبيل المثال، قد تطور شركة تصنع جهازاً طبياً نظامها القائم على تعلم الآلة باستخدام بيانات من مستشفيات كبيرة في المدن. لكن ما أن يطرح الجهاز في السوق، قد لا تبدو البيانات التي يدخلها الأطباء في المناطق الريفية مشابهة لبيانات التطوير. إذ قد تشدد المستشفيات في المدن تركيزها على المرضى من فئات اجتماعية ديموغرافية تعاني من مشكلات صحية أساسية لا يعاني منها المرضى في مستشفيات الريف، ولا يمكن اكتشاف هذه الاختلافات إلا عندما يرتكب الجهاز وهو قيد الاستخدام أخطاءً أكثر مما ارتكبه عندما كان في مرحلة الاختبار. ونظراً لتنوع الأسواق وسرعة تغيرها، تزداد صعوبة التنبؤ بما سيحدث في البيئة التي تعمل فيها هذه الأنظمة، ولا يمكن لأي كمية من البيانات استيعاب الاختلافات الدقيقة التي تحدث على أرض الواقع.
والسبب الثالث لاتخاذ تعلم الآلة قرارات خاطئة يتعلق بتعقيد الأنظمة الكلية التي يعمل ضمنها. خذ مثلاً جهازاً يستخدم في تشخيص مرض ما على أساس الصور التي يدخلها الأطباء، كجهاز "آي دي إكس - دي آر" (IDx-DR) الذي يتعرف على الاعتلالات البصرية، مثل اعتلال الشبكية السكري والوذمة البقعية، وكان أول جهاز طبي ذاتي التحكم قائم على تعلم الآلة يحصل على ترخيص للاستخدام من " إدارة الغذاء والدواء الأميركية". تعتمد جودة أي تشخيص على مدى وضوح الصور المقدمة، ونظام الخوارزمية الخاص بالجهاز، والبيانات التي تم تدريب الخوارزمية عليها، وتلقي الطبيب الذي يدخل الصور توجيهات مناسبة، وما إلى ذلك. ومع وجود عدد كبير من المعايير، يصعب تقييم ما إذا كان جهاز كهذا قد ارتكب خطأ ومعرفة سبب هذا الخطأ، فضلاً عن صعوبة التيقن من سلوكه.
لكن القرارات الخاطئة ليست الخطورة الوحيدة التي ينطوي عليها تعلم الآلة. فلنلق نظرة على فئتين أخريين، وهما مخاطر الوكالة والمخاطر الأخلاقية.
مخاطر الوكالة
تثير عيوب تعلم الآلة تحدياً مهماً آخر يتمثل في المخاطر الناجمة عن الأمور التي لا تقع ضمن سيطرة شركة معينة أو مستخدم محدد.
بصورة طبيعية، من الممكن الاعتماد على الأدلة الموثوقة من أجل إعادة بناء الظروف التي أدت إلى حادث ما. والنتيجة، عندما يقع حادث ما، يمكن للمسؤولين التنفيذيين الحصول كحد أدنى على تقديرات تفيد في تحديد درجة المسؤولية المحتملة التي قد تقع على عاتق شركتهم. لكن، بما أن تعلم الآلة يكون مدمجاً عادة في نظام معقد، فعلى الأرجح لن يكون من السهل معرفة من تسبب بالخلل، أي الطرف أو "الوكيل" المسؤول عن وقوع الخطأ (كمطور الخوارزمية مثلاً أو منفذ النظام أو الشريك)، وما إذا كانت هناك مشكلة في الخوارزمية أو في البيانات التي أدخلها المستخدم إليها، أو في البيانات التي استخدمت في تدريبها والتي يمكن أن تكون قد أخذت من عدة بائعين خارجيين. كما يزيد التغير البيئي والطبيعة الاحتمالية لتعلم الآلة من صعوبة معرفة الوكيل الذي يحمل مسؤولية الأخطاء. في الحقيقة، يمكن أن تقع الحوادث أو القرارات غير القانونية حتى وإن لم يرتكب أي طرف أي خطأ، لأن احتمال اتخاذ قرار خاطئ موجود دائماً.
يجب أن يعرف المسؤولون التنفيذيون متى يكون من المحتمل أن تواجه شركاتهم المساءلة في ظل القوانين الحالية التي يمكن أن تتطور هي أيضاً. خذ مثلاً السياق الطبي. لطالما اعتبرت المحاكم أن الأطباء هم صناع القرار النهائيون، لذا فهي تتردد بتحميل المسؤولية عن المنتج لصانعي البرمجيات الطبية. لكن قد يتغير ذلك مع تزايد الصناديق السوداء أو الأنظمة الذاتية التي تقوم بعمليات التشخيص والتوصيات من دون تدخل الأطباء في العيادات أو مع تدخلهم بدرجة ضئيلة جداً. ما الذي سيحدث مثلاً إذا أوصى نظام قائم على تعلم الآلة بمعالجة غير قياسية لمريض ما، كوصف جرعة دواء أعلى بكثير من المعتاد، وتطورت القوانين لتحمّل الطبيب مسؤولية أي ضرر إذا لم يتبع توصيات النظام؟ هذه التغييرات التشريعية قد ترفع مخاطر المسؤولية عن عاتق الأطباء وتضعها على عاتق مطوري الأجهزة القائمة على تعلم الآلة أو مزودي البيانات المستخدمة في تطوير الخوارزمية أو الشركات التي شاركت في تركيب الخوارزميات واستخدامها.
كيف لنا أن نبرمج سيارة ذاتية القيادة لتقوم بالمفاضلة بين حياة 3 مسنين وحياة شخص متوسط العمر؟
المخاطر الأخلاقية
سوف تحتاج المنتجات والخدمات التي تأخذ القرارات بصورة ذاتية أيضاً إلى حل المعضلات الأخلاقية، وهذا مطلب يُبرز مخاطر إضافية وتحديات فيما يخص التشريعات وتطوير المنتج. وقد بدأ الباحثون اليوم بوضع هذه التحديات ضمن إطار مشكلات تصميم الخوارزمية المسؤول، وهذه المشكلات تشمل معضلة أتمتة المنطق الأخلاقي. مثلاً، هل يتعين على شركة "تيسلا" عند برمجة سياراتها التفكير بمنطق نفعي قائم على التكلفة والفائدة، أم بمنطق الفلسفة الكانتية (Kantian) التي تقول إنه من غير الممكن المساومة على قيم معينة مهما كانت الفوائد؟ حتى وإن كان المنطق النفعي هو الجواب، فتحديد المقاييس صعب للغاية. كيف لنا أن نبرمج سيارة ذاتية القيادة لتقوم بالمفاضلة بين حياة 3 مسنين وحياة شخص متوسط العمر؟ كيف يجب أن توازن الشركات مثلاً بين أوجه المفاضلة في مجالات الخصوصية وصحة القرارات والأمان مثلاً؟ هل يمكن تفادي هذا النوع من المخاطر؟
تتضمن المخاطر الأخلاقية أيضاً التحيزات المرتبطة بالفئات الديموغرافية. على سبيل المثال، تواجه خوارزميات التعرف على الوجه صعوبة كبيرة في التعرف على الأشخاص ذوي البشرة الملونة. ويبدو أن أنظمة تصنيف الأمراض الجلدية تختلف صحتها باختلاف أعراق المرضى وأدوات التنبؤ بمعاودة الأعمال الإجرامية تمنح الأشخاص ذوي البشرة السوداء وذوي الأصول اللاتينية تقييمات عالية خاطئة؛ في حين تمنحهم أنظمة قياس الجدارة الائتمانية تقييمات متدنية مجحفة. ومع تعدد الاستخدامات التجارية المنتشرة على نطاق واسع لأنظمة تعلم الآلة، قد تعتبر هذه الأنظمة مجحفة بحق فئة بعينها فيما يخص أبعاداً معينة.
وتتفاقم المشكلة بسبب تبني طرق متعددة قد لا تكون متوافقة فيما بينها لتعريف الإنصاف وكتابة شفرته البرمجية في الخوارزميات. يمكن معايرة خوارزمية الإقراض، أي جعل قراراتها مستقلة عن هوية الفئة بعد استبعاد أثر مستوى الخطورة، لكنها مع ذلك تستمر بالرفض غير المتكافئ لإقراض الأقليات التي تتمتع بالجدارة الائتمانية. والنتيجة هي أن تجد إحدى الشركات نفسها في مأزق سواء وافقت على منح القرض أو رفضته. وإذا استخدمت الخوارزميات لتحديد من يحصل على القرض فقد تواجه صعوبة في تفادي الاتهامات بأنها تمارس التمييز ضد بعض الفئات وفقاً لأحد تعريفات الإنصاف. كما يمكن أن تختلف التعريفات والمقايضات الأخلاقية المقبولة باختلاف الثقافات، وهذه مشكلة تواجهها الأسواق العالمية. يشير مستند تعريفي بالذكاء الاصطناعي أصدرته المفوضية الأوروبية في فبراير/شباط 2020 إلى هذه التحديات، ويدعو إلى تطوير الذكاء الاصطناعي وفقاً "للقيم الأوروبية". لكن هل يمكن تصدير هذا الذكاء الاصطناعي بسهولة إلى مناطق تتبنى قيماً مختلفة؟
وأخيراً، يمكن أن يكون سبب جميع هذه المشكلات هو عدم ثبات النموذج، وفي هذا الموقف تؤدي المدخلات المتقاربة إلى قرارات متباعدة عن بعضها البعض. من المرجح أن تعامل الخوارزميات غير الثابتة أشخاصاً متماثلين بطرق مختلفة ويمكن أن تعاملهم بطريقة مجحفة كذلك.
بالطبع، جميع هذه الاعتبارات لا تعني أن علينا تفادي تعلم الآلة بمجمله، بل يجب على المسؤولين التنفيذيين اغتنام الفرص التي يولدها مع الحرص على معالجة مخاطره بصورة ملائمة.
هل يجب إيقاف التطور التلقائي لتعلم الآلة أم السماح به؟
إذا قرر القادة استخدام تعلم الآلة، يكون السؤال المهم التالي هو: هل يجب على الشركة السماح لتعلم الآلة بالتطور بصورة مستمرة، أم أن تقدم نسخاً مختبرة وثابتة في فترات محددة؟ هل سيساعد الخيار الأخير في الحد من المخاطر التي تحدثنا عنها؟
هذه المشكلة مألوفة في عالم الطب. إذ لم تمنح إدارة الغذاء والدواء تراخيص إلا للبرمجيات المستخدمة كأجهزة طبية (أي البرمجيات التي يمكنها أداء وظائفها الطبية من دون أجهزة مادية) والتي لا تتطور خوارزمياتها بصورة تلقائية. ما السبب في ذلك؟ لم ترغب الإدارة بالسماح باستخدام الأجهزة التي تتغير فيها إجراءات التشخيص أو مسارات العلاج باستمرار وبطرق لا يمكن للإدارة فهمها. لكن، تدرك إدارة الغذاء والدواء وغيرها من الجهات الرقابية اليوم أن إيقاف التطوير التلقائي للخوارزميات قد يكون خطراً بنفس الدرجة، لأنه ليس بالضرورة أن يتمكن من إزالة المخاطر التالية:
القرارات الخاطئة. لن يغير منع تطور تعلم الآلة التلقائي شيئاً من حقيقة أن خوارزميات تعلم الآلة تعتمد في قراراتها عادة على الاحتمالات التقديرية. فضلاً عن ذلك، وفي حين أن إدخال مزيد من البيانات يؤدي عادة إلى أداء أفضل، إلا أن ذلك لا يحدث دائماً، وكمية التحسن قد تختلف، أي أن التحسينات التي يتم إدخالها على الخوارزميات التي تتطور تلقائياً قد تكون أكثر أو أقل بحسب اختلاف الأنظمة وكميات البيانات. ومن الضروري محاولة فهم طريقة تغير درجة صحة القرارات أو عدم صحتها عند تمكين تطور الخوارزميات التلقائي، على الرغم من صعوبة ذلك.
الضرر البيئي. تطور البيئة التي يصنع النظام القرارات ضمنها هو أمر مهم أيضاً. مثلاً، تعمل أنظمة القيادة الذاتية في السيارات في بيئات تتغير باستمرار نتيجة لسلوك السائقين الآخرين؛ وقد تواجه أنظمة التسعير وتقدير الجدارة الائتمانية والمداولات أنظمة متغيرة في الأسواق عند كل مرحلة جديدة تدخلها الدورة الاقتصادية. يتمثل التحدي في ضمان تطور نظام تعلم الآلة والبيئة المحيطة به معاً على نحو يتيح للنظام صنع قرارات ملائمة.
مخاطر الوكالة. لا يلغي منع تطوير الخوارزميات التلقائي تعقيد النظام الذي يضمها. مثلاً، يمكن أن تستمر الأخطاء التي تحدث بسبب استخدام بيانات ثانوية مأخوذة من بائعين خارجيين في تدريب الخوارزمية، أو بسبب الاختلافات في مهارات المستخدمين. ويمكن أن تستمر صعوبة توزيع المسؤولية على مزودي البيانات ومطوري الخوارزميات ومنفذيها ومستخدميها.
المخاطر الأخلاقية. قد يحتفظ نظام تعلم الآلة الذي لا يتطور تلقائياً بالعيوب أو التحيزات التي لا يدركها من عملوا على تطويره. مثلاً، عند تحليل صور فحص الماموغرام من أجل تحري علامات سرطان الثدي، لن تتمكن الخوارزمية التي لا تتطور تلقائياً من التعلم من الفئات السكانية الفرعية التي يتم تطبيقها عليهم. وبما أن كثافة أنسجة الثدي الوسطية تتنوع باختلاف الأعراق، قد يؤدي ذلك إلى أخطاء في التشخيص إذا قام النظام بفحص أشخاص من مجموعة ديموغرافية كان تمثيلها قليلاً في بيانات التدريب. وبالمثل، فإن خوارزمية تقدير الجدارة الائتمانية، التي تم تدريبها على مجموعة سكانية فرعية معزولة اجتماعياً واقتصادياً، قادرة على تحييد مقترضين معينين بنفس طريقة ممارسات الاستبعاد غير القانونية. نحن نريد من الخوارزميات أن تصحح هذه الأخطاء بأقصى سرعة ممكنة عن طريق تكييف نفسها من خلال مراقبة مزيد من البيانات التي تأخذها من فئات سكانية فرعية لم تحظ بتمثيل جيد أو لم تُعرّف من قبل. وبصورة معاكسة، فالأجهزة التي تتطور أنظمة تعلم الآلة فيها تلقائياً قد تتسبب بالأذى لمجموعة سكانية أو أكثر مع مرور الوقت إذا اعتمد تطورها بنسبة كبيرة على البيانات المأخوذة من مجموعة مختلفة. أضف إلى ذلك أنه قد يكون من الصعب تحديد النقطة التي يصبح الجهاز عندها أسوأ نسبياً في تعامله مع إحدى المجموعات السكانية.
يجب أن ينظر المسؤولون التنفيذيون إلى تعلم الآلة على أنه كيان حيّ لا تقنية جامدة.
مجموعة أدوات للمسؤولين التنفيذيين
كيف يجب على المسؤول التنفيذي التعامل مع مخاطر تعلم الآلة الحالية والجديدة؟ إن تطوير العمليات الملائمة وزيادة المهارة والإتقان لدى المسؤولين التنفيذيين وأعضاء مجلس الإدارة وطرح الأسئلة المناسبة وتبني الإطار الذهني الصحيح هي جميعها خطوات مهمة.
عامل نظام تعلم الآلة على أنه إنسان. يجب أن ينظر المسؤولون التنفيذيون إلى تعلم الآلة على أنه كيان حيّ لا تقنية جامدة. وتماماً كما لا يستطيع الاختبار المعرفي للموظفين كشف أدائهم المستقبلي بعد ضمهم إلى فريق موجود مسبقاً في الشركة، لا يستطيع اختبار المختبر توقع أداء نظام تعلم الآلة على أرض الواقع. يجب على المسؤولين التنفيذيين المطالبة بتحليل كامل لطريقة الموظفين أو العملاء أو غيرهم من المستخدمين في تطبيق هذه الأنظمة واستجابتهم لقراراتها. يجب على الشركات إجراء تجارب عشوائية خاضعة للمراقبة على منتجاتهم الجديدة القائمة على تعلم الآلة من أجل ضمان أنها آمنة وفعّالة ومنصفة قبل طرحها في الأسواق، حتى وإن لم تفرض الجهات التنظيمية ذلك عليها. لكن يجب على الشركات أيضاً تحليل قرارات منتجاتها في السوق الفعلي، من أجل معرفة ما إذا كانت درجة جودة هذه القرارات تختلف باختلاف المستخدمين الفعليين. بالإضافة إلى أنه ينبغي للشركات مقارنة جودة القرارات التي تتخذها الخوارزميات مع القرارات التي يتم اتخاذها في نفس الموقف من دون استخدام الخوارزميات. وقبل تطبيق المنتجات على نطاق واسع، وخصوصاً التي لم تخضع للتجارب العشوائية الخاضعة للمراقبة، يجب على الشركات التفكير باختبار المنتجات في أسواق محدودة من أجل الحصول على صورة أفضل عن سلوكها ومدى صحة قراراتها عند تدخل عوامل مختلفة. خذ مثلاً عدم تساوي خبرات المستخدمين وتنوع البيانات المأخوذة من المصادر والتغيرات التي تطرأ على البيئة التي تستخدم فيها هذه الأجهزة. تشير حالات الفشل على أرض الواقع إلى ضرورة إجراء التحسينات على الخوارزميات أو سحبها من السوق.
فكر كمراقب للنظام وصادق أولاً. يجب أن تطور الشركات خططاً للمصادقة على عروضها القائمة على أنظمة تعلم الآلة قبل طرحها في الأسواق، وممارسات مراقبي النظام تمثل نموذجاً جيداً. على سبيل المثال، في عام 2019 نشرت إدارة الغذاء والدواء ورقة مناقشة تقترح إطار عمل تنظيمي جديد للتعديلات التي يجب إدخالها على برمجيات تعلم الآلة التي تستخدم كأجهزة طبية. وضحت هذه الورقة نهجاً يتيح لهذه البرمجيات الاستمرار بالتحسن مع الحفاظ على سلامة المرضى، وذلك يشمل تقييماً كاملاً للشركة أو الفريق الذي طور البرمجيات من أجل ضمان امتلاكه ثقافة الامتياز المؤسسي والجودة العالية اللتين تدفعانه لإخضاع أجهزته القائمة على تعلم الآلة لاختبارات دورية. وإذا لم تتبنّ الشركات عمليات المصادقة هذه، فقد تعرض نفسها للمساءلة بسبب عدم التدقيق في منتجها بما يكفي، على سبيل المثال.
لذا، تقدم شركات ناشئة كثيرة خدمات للمصادقة على خلو المنتجات والعمليات من التحيز والأحكام المسبقة والصور النمطية والإجحاف وغيرها من المزالق. كما أن مؤسسات مهنية مثل "معهد المهندسين الكهربائيين والإلكترونيين" و"المؤسسة الدولية للتوحيد القياسي" تعمل أيضاً على تطوير مقاييس لهذا النوع من المصادقة، في حين تقدم شركات مثل "جوجل" خدمات أخلاقيات الذكاء الاصطناعي التي تتفحص عدة أبعاد بدءاً من البيانات المستخدمة في تدريب الأنظمة، مروراً بسلوك هذه الأنظمة وصولاً إلى أثرها على الرفاهة. وقد تضطر الشركات إلى تطوير أطر عمل خاصة بها على نحو مماثل.
راقب باستمرار. قد ترى الشركات أن تقنياتها لا تؤدي عملها كما كان مقرراً لها منذ البداية بسبب تطور المنتجات والخدمات القائمة على تعلم الآلة والبيئات التي تعمل ضمنها. لذا، من الضروري أن تعد هذه الشركات طرقاً للتحقق من أن سلوك هذه التقنيات مستمر ضمن الحدود الملائمة. يمكن أن تمثل القطاعات الأخرى نماذج لذلك. خذ مثلاً "مبادرة سنتينيل" (Sentinel Initiative) التي تتبناها إدارة الغذاء والدواء، فهي تأخذ بياناتها من مصادر مختلفة، مثل سجلات الصحة الإلكترونية، كي تتمكن من مراقبة سلامة المنتجات الطبية، ويمكنها إجبار الشركات المصنعة على سحب المنتجات إذا لم تفِ بالمعايير المطلوبة. كما يمكن أن تشبه برامج المراقبة في الشركات
هل يجب ألا نسمح لتعلم الآلة بصنع القرارات في ظل ظروف معينة؟ إذا كان الجواب هو "نعم"، فما هي هذه الظروف؟
من جوانب كثيرة أدوات الصيانة الوقائية وعملياتها المستخدمة حالياً في شركات التصنيع أو الطاقة أو في الأمن السيبراني. مثلاً، يمكن للشركات إجراء هجمات عدوانية مزعومة على أنظمة الذكاء الاصطناعي، كالتي تستخدم في اختبار القوة الدفاعية في أنظمة تقنية المعلومات.
اطرح الأسئلة المناسبة
يجب أن يتعمق المسؤولون التنفيذيون ومراقبو الأنظمة في النقاط التالية:
الصحة والمنافسة. ما هي درجة التحسن المحتمل في النظام القائم على تعلم الآلة نظراً لحجم البيانات التي يكتسبها نتيجة لاستخدامه إذا لم نمنع تطوره التلقائي؟ ما الذي ستعنيه هذه التحسينات بالنسبة للشركة؟ إلى أي مدى سيعي المستهلكون فوائد الأنظمة التي لا تتطور تلقائياً ومساوئها مقارنة بالأنظمة التي تتطور تلقائياً؟
التحيز. ما هي البيانات المستخدمة في تدريب الخوارزمية؟ ما درجة تمثيلها للفئة السكانية التي ستعمل الخوارزمية عليها في نهاية المطاف؟ هل يمكننا توقع أن سماحنا للخوارزمية التي تتطور تلقائياً بالتعلم مع مرور الوقت سيجعلها تولد نتائج أقل تحيزاً من نتائج الخوارزمية التي لا تتطور تلقائياً؟ هل تؤثر أخطاء الخوارزمية على الأقليات أو على فئة بعينها؟ هل يمكن لنهج المراقبة المستمرة إنشاء "حواجز حماية" تمنع الخوارزمية من أن تصبح تمييزية؟
البيئة. كيف ستتغير البيئة التي يعمل النظام المعروض فيها مع مرور الوقت؟ هل يجب ألا نسمح لتعلم الآلة بصنع القرارات في ظل ظروف معينة؟ إذا كان الجواب هو "نعم"، فما هي هذه الظروف؟ كيف نضمن أن يتطور سلوك النظام المعروض بصورة ملائمة بالنظر لتغير البيئة نفسها؟ متى يتعين علينا سحب نظامنا المعروض بسبب توسع الفجوة بين البيئة التي يعمل ضمنها وسلوكه؟ ما هي حدود البيئة التي يمكن لنظامنا التكيف معها والعمل ضمنها؟ ما مدى متانة أنظمة تعلم الآلة التي ننتجها وأمانها على مدى دورة حياتها؟
طور مبادئ تعالج المخاطر التي تواجهها شركتك
ستضطر الشركات لتأسيس مبادئها التوجيهية الخاصة التي تشمل المبادئ التوجيهية الأخلاقية، من أجل إدارة هذه المخاطر الجديدة، كما فعلت بعض الشركات بالفعل، ومنها "جوجل" و"مايكروسوفت". يجب أن تكون هذه المبادئ التوجيهية عادة محددة بدقة (مثلاً، فيما يخص تعريفات الإنصاف التي تتبناها الشركة) كي تكون مفيدة، ويجب أن يتم تصميمها بحسب المخاطر المعنية. إذا كنت تستخدم نظام تعلم الآلة في اتخاذ قرارات تعيين موظفين جدد، سيكون من الجيد أن تملك نموذجاً بسيطاً وعادلاً ويتسم بالشفافية. وإذا كنت تستخدم نظام تعلم الآلة من أجل توقع أسعار عقود السلع الآجلة، فقد يكون اهتمامك بهذه القيم أقل من اهتمامك بقيمة الخسائر المالية العظمى التي يحتمل أن تنتج عن أي قرارات يتخذها نظام تعلم الآلة.الوكالة. ما هي المكونات الخارجية، ومنها مصادر البيانات، التي يعتمد عليها سلوك خوارزميات تعلم الآلة التي ننتجها؟ لأي درجة يتغير سلوك الخوارزمية باختلاف مستخدميها، أي عندما يستخدمها أشخاص أقل مهارة مثلاً؟ ماهي المنتجات أو الخدمات التي تقدمها مؤسسات أخرى والتي تستخدم بياناتنا أو خوارزميات تعلم الآلة التي ننتجها، وبالتالي تعرضنا للمساءلة؟ هل يتعين علينا السماح للمؤسسات الأخرى باستخدام خوارزميات تعلم الآلة التي نطورها؟
لحسن الحظ، ليس من الضروري أن تخوض رحلة تطوير المبادئ وتطبيقها بمفردك، إذ يمكن للمسؤولين التنفيذيين تعلم الكثير من الجهود التي بذلتها بعض المؤسسات على مدى عدة أعوام، مثل "منظمة التعاون الاقتصادي والتنمية" التي طورت مبادئ الذكاء الاصطناعي الحكومية الأولى (والتي تبنتها دول عدة عام 2019). تعزز مبادئ "منظمة التعاون الاقتصادي والتنمية" الذكاء الاصطناعي المبتكر والجدير بالثقة والذي يتسم بالشفافية المسؤولة ويحترم حقوق الإنسان وحكم القانون والتنوع والقيم الديمقراطية، والذي يحفز النمو الشامل والتطوير المستدام والرفاهة. كما تؤكد على أهمية قوة أنظمة الذكاء الاصطناعي والتزامها بالسلامة والأمان وإدارة المخاطر المستمرة على مدى دورة حياتها.
أطلقت "منظمة التعاون الاقتصادي والتنمية" مؤخراً مرصداً لسياسات الذكاء الاصطناعي (AI Policy Observatory)، وهو يقدم مزيداً من الموارد المفيدة، كمجموعة شاملة من سياسات الذكاء الاصطناعي المتبعة حول العالم.
يتمتع تعلم الآلة بإمكانات هائلة. لكن مع تغلغل هذه التقنية إلى جانب الأشكال الأخرى من الذكاء الاصطناعي في النسيج الاقتصادي والاجتماعي، ستزداد المخاطر التي تجلبها. وبالنسبة للشركات، قد يثبت أن الحد من هذه المخاطر مهم بقدر إدارة تعلم الآلة وتبنيه، إن لم يكن أكثر أهمية. وإذا لم تكن الشركات قادرة على تأسيس الممارسات المناسبة لمعالجة هذه المخاطر الجديدة، فعلى الأرجح أنها ستواجه مشكلات في اكتساب زخم في السوق.