نحن بحاجة إلى ذكاء اصطناعي قابل للتفسير والتدقيق ويتمتع بالشفافية

5 دقائق
ذكاء اصطناعي قابل للتفسير

يشعر جميع الآباء بالقلق من التأثيرات التي يتعرض لها الأبناء. من هم معلموهم؟ ما هي الأفلام التي يشاهدونها؟ ما هي الألعاب الإلكترونية التي يلعبونها؟ هل يقضون أوقاتهم مع المجموعة المناسبة؟ ندقق كثيراً على هذه التأثيرات لأننا نعرف أنها تؤثر في قرارات أبنائنا، سلباً أو إيجاباً. فكيف سنحصل على ذكاء اصطناعي قابل للتفسير؟

كما نشغل أنفسنا بالتفكير بمن يعلم أبناءنا، يجب أن ننتبه لمن يعلم خوارزمياتنا أيضاً. فالذكاء الاصطناعي مثل البشر تماماً، يتعلم من البيئة التي يتعرض لها ويتخذ قرارات مبنية على الانحيازات التي تنشأ فيها. وكما هو الحال مع أبنائنا، نحن نتوقع من نماذجنا أن تكون قادرة على شرح قراراتها في أثناء تطورها.

وكما تشرح كاثي أونيل في كتابها "أسلحة الدمار الحسابي" (Weapons of Math Destruction)، غالباً ما تحدد الخوارزميات الجامعات التي نذهب إليها وحصولنا على وظيفة ودرجة أهليتنا للحصول على قرض لشراء منزل، وحتى أنها تحدد من يدخل السجن والمدة التي سيقضيها فيه. وعلى خلاف قرارات الإنسان، نادراً ما نشكك بهذه القرارات الحسابية، وتحدد المصائر بمجرد ظهورها على شاشة كمبيوتر ما.

تكون أخطاء الخوارزميات واضحة أحياناً، مثلاً، عندما أعلن مؤشر "داو جونز" أن شركة جوجل ستشتري شركة آبل لقاء مبلغ 9 مليارات دولار وصدقت الآلات هذا الخبر واستجابت له، أو عندما جن جنون روبوت الدردشة "تاي" (Tay) التابع لشركة مايكروسوفت على موقع تويتر. ولكن كثيراً ما تكون الأخطاء غير واضحة. والأمر الأكثر خبثاً وانتشاراً هو حالات الخلل الأشد دقة التي لا ينتبه إليها أحد، ولكنها تخلف تأثيرات حقيقية على حياة الناس.

وما أن تصل إلى الجانب الخاطئ من الخوارزمية ستصبح حياتك أكثر صعوبة على الفور، لن تتمكن من الدخول إلى جامعة جيدة أو الحصول على وظيفة جيدة وسيكون دخلك أقل وستعيش في حي أسوأ، وما أن تدخل هذه الحقائق إلى الخوارزمية سيتدهور وضعك ويسوء أكثر. فكل خطوة من تراجعك يتم توثيقها وقياسها وتقييمها.

خذ مثلاً حالة سارة وايسوكي، وهي معلمة للصف الخامس، فعلى الرغم من إشادة الأهل والطلاب والمسؤولين على حد سواء بها، تم فصلها من ناحية مدرسية في العاصمة لأن خوارزمية ما اعتبرت أداءها ضعيفاً. لماذا؟ السبب ليس واضحاً تماماً، لأن النظام كان شديد التعقيد لدرجة تمنع من طردوها من فهمه.

التعامل مع مشكلة انحياز الذكاء الاصطناعي

لا تسيئ الفهم، فمع تزايد اعتمادنا على الخوارزميات كمصدر خارجي لصنع القرارات، تزيد احتمالات تفاقم المشكلة وازديادها سوءاً، وأصبح لزاماً علينا أن نبدأ في التعامل مع مشكلة انحياز الذكاء الاصطناعي بجدية أكبر واتخاذ خطوات لتقليص آثاره عن طريق جعل أنظمتنا أكثر شفافية وقابلية للتفسير والتدقيق.

مصادر الانحياز

هناك مصدران أساسيان للانحياز في الذكاء الاصطناعي، وهما: مجموعات البيانات التي تتدرب عليها النماذج، وتصميم النماذج نفسها. يمكن أن تكون حالات الانحياز في البيانات التي يتدرب عليها الذكاء الاصطناعي خفية، كاستخدام تطبيقات الهاتف الذكي لمراقبة الحفر وتنبيه السلطات كي تتصل بطواقم الصيانة مثلاً. ربما كانت هذه الطريقة فعالة ولكنها لا تأخذ في حسبانها المناطق الأكثر فقراً التي يملك عدد قليل فقط من سكانها هواتف ذكية.

وفي حالات أخرى، يمكن للبيانات التي لم يتم جمعها التأثير في النتائج، ويعتقد المحللون أن ذلك هو ما حدث عندما تنبأت خدمة "جوجل فلو ترندز" (Google Flu Trends) بعدد حالات الإصابة بالإنفلونزا في عام 2013 يبلغ قرابة ضعف عدد الحالات الحقيقية، فعلى ما يبدو، ما حدث هو أن التغطية الإعلامية المتزايدة أدت إلى إجراء أشخاص لم يصابوا بالإنفلونزا بحثاً عن المرض على الإنترنت.

ولكن هناك أمر آخر يسبب الانحياز، وهو انتقال انحياز البشر إلى أنظمة الذكاء الاصطناعي. خذ مثلاً الانحيازات في النظام القضائي، فهي تؤثر على من يوجه إليهم الاتهام ويحكم عليهم في الجرائم. وإذا استخدمت هذه البيانات للتنبؤ بالأشخاص الذين يرجح ارتكابهم جرائم، فستحمل معها هذه الانحيازات. وفي حالات أخرى، يقوم البشر بوضع علامات على البيانات وقد يوجهون انحياز المدخلات إلى النظام.

هذا النوع من التحيز متفشّ ويصعب القضاء عليه. وفي الحقيقة، أجبرت شركة أمازون على التخلي عن برنامج توظيف قائم على الذكاء الاصطناعي لأنها لم تتمكن من إزالة التحيّز ضد المرأة من نتائجه. إذ كانوا يفضلون الرجال على نحو غير عادل، لأن بيانات التدريب التي استخدموها علّمت النظام أن معظم موظفي الشركة الذين تم توظيفهم من قبل والذين كانوا يعتبرون ناجحين كانوا ذكوراً. وحتى عندما ألغوا أي إشارة محددة إلى نوع الجنس، كان النظام يحدد بعض الكلمات التي تظهر في السير الذاتية للذكور أكثر من ظهورها في السير الذاتية للإناث ويعتبرها ممثلاً عن نوع الجنس.

وينبع المصدر الكبير الثاني للانحياز من طريقة تصميم نماذج صنع القرار. على سبيل المثال، إذا تم تقييم قدرة معلم بناء على الدرجات التي يحصل عليها في اختبار ما، فعندئذ لن تسجل أوجه أدائه الأخرى أو قد تتم معاقبتها على نحو مجحف، كطريقته في التعامل مع الأطفال الذين يعانون من اختلافات في التعلم أو مشاكل عاطفية مثلاً. وفي حالات أخرى، يعتمد بناء النماذج على البيانات التي يسهل الحصول عليها أو يكون النموذج مفرطاً في التطابق مع مجموعة محددة من الحالات ويتم تطبيقه على نطاق أوسع مما ينبغي.

التغلب على الانحياز

وفي ظل هذا العدد الكبير من مصادر التحيز المتنوعة، لن يكون اعتقاد أننا قادرون على القضاء عليها كلها أو معظمها تفكيراً واقعياً. ولكن ما يمكننا فعله هو جعل أنظمة الذكاء الاصطناعي أكثر قابلية للتفسير والتدقيق وأكثر شفافية. ونقترح ثلاث خطوات عملية يمكن للقادة اتخاذها لتخفيف آثار الانحياز.

أولاً: يجب أن تخضع أنظمة الذكاء الاصطناعي إلى مراقبة بشرية صارمة. ‎على سبيل المثال، جاء في دراسة استشهد بها تقرير للبيت الأبيض خلال فترة إدارة أوباما أن معدل خطأ الآلات في قراءة صور الأشعة بلغ نسبة 7.5%، في حين بلغ معدل الخطأ البشري 3.5%. ولكن عندما دمج عمل البشر مع عمل الآلات انخفض معدل الخطأ إلى 0.5%.

ثانياً: يجب أن يعرف المهندسون الذين يبنون الأنظمة خوارزمياتهم على نحو يشبه كثيراً إلزام القانون للمصارف "بمعرفة زبائنها". خذ رئيس شركة "داتا لابز" (Datalabs) التابعة لشركة "إكسبيريان" (Experian)، إيريك هالر، على سبيل المثال. فقد أخبرنا أنه قبل عقود خلت كانت النماذج التي يستخدمونها بسيطة إلى حد كبير. أما في عصر الذكاء الاصطناعي، يجب على علماء البيانات الذين يعملون لديه العمل بحذر أكبر بكثير. قال لنا: "في الماضي، لم يكن علينا سوى الاحتفاظ بسجلات دقيقة، كي نتمكن من العودة إليها إذا ارتُكب خطأ ما والعثور على المشكلة وإصلاحها. أما الآن، يقوم عدد كبير من نماذجنا على الذكاء الاصطناعي، وذلك ليس بتلك السهولة. لم نعد قادرين على تحميل تعليمات برمجية مفتوحة المصدر وتشغيلها فحسب، بل يجب علينا أن نفهم على مستوى عميق للغاية كل سطر من التعليمات البرمجية التي تدخل إلى خوارزمياتنا وأن نتمكن من تفسيره للمساهمين الخارجيين".

ثالثاً: يجب أن تتمتع أنظمة الذكاء الاصطناعي ومصادر البيانات التي تستخدم في تدريبها بالشفافية وأن تكون متوفرة كي تخضع للتدقيق. اتخذت بعض الأطر التشريعية في أوروبا، مثل التشريعات العامة لحماية البيانات، خطوات أولى واعدة، ولكن من الواضح أن هناك حاجة لمزيد من العمل. فنحن لا نقبل أن يتخذ البشر قرارات من دون رقابة، وليس هناك أي سبب يدفعنا لقبول اتخاذ الآلات القرارات من دون رقابة أيضاً.

ربما كان أكثر ما نحتاج إليه هو الانتقال من ثقافة الأتمتة إلى ثقافة التعزيز. وينجح الذكاء الاصطناعي أكثر عندما يستخدم كمضاعف قوة من أجل إنشاء قيمة جديدة، وليس كنوع من الصناديق السحرية التي تستخدم لتحل محل البشر وتخفض التكاليف. وعند جعل الحصول على ذكاء اصطناعي قابل للتفسير والتدقيق وأكثر شفافية، سنجعل أنظمتنا عادلة أكثر، وسنزيد كفاءتها وفائدتها إلى درجة كبيرة.

اقرأ أيضاً:

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

المحتوى محمي