في عام 1971، اقترح الفيلسوف جون راولز إحداث تجربة فكرية لفهم فكرة العدالة، وهي ما سُميت بـ "حجاب الجهل". وتساءل، ماذا لو تمكنا من مسح أدمغتنا حتى لا يكون لدينا ذاكرة حول من نكون، أي لا نعلم ما هو عرقنا ومستوى دخلنا ومهنتنا وأي أمر آخر قد يؤثر على رأينا؟ حينها، من كنا سنحمي؟ ومن الذي ستخدمه سياساتنا؟

حجاب الجهل هو تمرين فلسفي للتفكير بالعدالة والمجتمع، ويمكن تطبيقه في مجال الذكاء الاصطناعي المزدهر. نحن نُشيد بنتائج الذكاء الاصطناعي باعتبارها نتائج رياضية وبرمجية وربما تكون بطبيعتها أفضل بكثير من القرارات الإنسانية المشحونة بالمشاعر. فهل يمكن للذكاء الاصطناعي توفير حجاب الجهل الذي سيقودنا إلى نتائج موضوعية ومثالية؟

كانت الإجابة حتى الآن مخيبة للآمال، إذ مهما كانت الأهداف التي نعتزم أن تكون عليه تطبيقات التكنولوجيا، فإنها في النهاية متأثرة بالأشخاص الذين يعملون على بنائها والبيانات التي تغذيها. وخبراء التكنولوجيا لا يحددون المهام الموضوعية خلف استقلالية الذكاء الاصطناعي عن السياق الاجتماعي، فالبيانات ليست موضوعية لأنها انعكاس للتحيزات الاجتماعية والثقافية القائمة أصلاً. ومن الناحية العملية، يمكن للذكاء الاصطناعي أن يكون وسيلة لإدامة التحيز، ما يؤدي إلى تبعات سلبية غير مقصودة ونتائج جائرة.

إنّ نقاشات اليوم حول التبعات غير المقصودة والنتائج العادلة ليست حديثة العهد. فقد وضعت المحكمة العليا الأميركية (U.S. Supreme Court) في عام 1971 مفهوم "التأثير المتباين"، وهو مفهوم يمثل النظرية القانونية السائدة المستخدمة لمراجعة التمييز غير المقصود. وتحديداً، جاء في الحكم المنصوص على قضية غريغز في دوك باور كومباني (Griggs v. Duke Power) أنّ استقلالية النتائج المقصودة والمتباينة والتمييزية بخصوص الفئات المحمية (في هذه القضية؛ والتي كانت متعلقة بالتوظيف)؛ كانت تنتهك المادة السابعة من قانون الحقوق المدنية لعام 1964. واليوم، يُستخدم هذا الحكم على نطاق واسع لتقييم قرارات التوظيف والإسكان، وهو الأساس القانوني للبحث في احتمال حدوث التمييز في مجال الذكاء الاصطناعي. وعلى وجه الخصوص، يحدد كيفية فهم "التبعات غير المقصودة" وما إذا كانت نتائج عملية اتخاذ القرار عادلة. وفي حين أنّ تنظيم الذكاء الاصطناعي في مراحله الأولى، فإنّ العدالة ستكون الركيزة الأساسية لتأثير التمييز السلبي.

يستقطب مجال أخلاقيات الذكاء الاصطناعي مجموعة متعددة الاختصاصات من المحامين والفلاسفة وعلماء الاجتماع والمبرمجين وغيرهم. ونتيجة التأثر بهذا المجتمع، طورت مؤسسة أكسنتشر للذكاء التطبيقي (Accenture Applied Intelligence) أداة تقييم العدالة لفهم ومعالجة التحيز في البيانات والنماذج الخوارزمية التي هي في جوهر أنظمة الذكاء الاصطناعي.

كيف تعمل الأداة؟

تقيس أداتنا التأثير المتباين وتصحح التكافؤ التنبئي لتحقيق تكافؤ الفرص، إذ تعرض تأثيرات متباينة محتملة من خلال التحقق من البيانات والنموذج، وتندمج العملية مع عمليات علم البيانات القائمة. تُستخدم الخطوة الأولى في الأداة في عملية التحقق من البيانات، وتجري الخطوة الثانية والثالثة بعد تطوير النموذج. في شكلها الحالي، تعمل أداة تقييم العدالة لنماذج التصنيف، والتي تُستخدم على سبيل المثال من أجل تحديد ما إذا كان سيتم منح قرض لمقدم الطلب أم لا. وتجمع نماذج التصنيف الأشخاص أو البنود المدرجة من خلال خصائص مماثلة، وتساعد الأداة المستخدم على تحديد ما إذا كانت هذه المجموعات تنشأ بطريقة غير عادلة ثم توفر أساليب التصحيح.

هناك ثلاث خطوات لعمل الأداة:

  • يبحث الجزء الأول في بيانات التأثير الخفي للمتغيرات الحساسة، والمحددة من قبل المستخدم، على المتغيرات الأخرى. وتحدد الأداة وتقيس ما تأثير كل متغير متنبئ على نتائج النموذج من أجل تحديد المتغيرات التي يجب أن يُركز عليها في الخطوتين الثانية والثالثة. على سبيل المثال، يُعتبر الاستخدام الشائع لتطبيقات الذكاء الاصطناعي هو في مجال التوظيف وتقييم الموظفين، ولكن تُظهر الدراسات أنّ عاملي الجنس والعرق مرتبطان بالراتب والترقية. وهنا يمكن لقسم الموارد البشرية في المؤسسات استخدام الأداة لضمان أنّ المتغيرات مثل الأدوار الوظيفية والدخل مستقلة عن العرق والجنس.
  • يبحث الجزء الثاني للأداة في توزع أخطاء النموذج للفئات المختلفة من المتغير الحساس. فإذا كان هناك نمط مختلف واضح (متصور في الأداة) لحدود الخطأ بالنسبة للرجال والنساء، فهذا مؤشر على أنّ النتائج قد تكون مدفوعة بنوع الجنس. تُطبق أداتنا مفهوم التشويه الإحصائي لإصلاح حدّ الخطأ، أي أنّ حدّ الخطأ يصبح أكثر تجانساً عبر المجموعات المختلفة، ويتم تحديد درجة التصحيح من قبل المستخدم.
  • أخيراً، تبحث الأداة في المعدل الإيجابي الخاطئ عبر المجموعات المختلفة وتطبّق معدل متكافئ، والذي يحدده المستخدمون، للإيجابيات الخاطئة عبر جميع المجموعات. وتمثل الإيجابيات الخاطئة شكلاً معيناً من أشكال خطأ النموذج، مثل الحالات التي يُعطينا فيها النموذج نتيجة "نعم" عندما كان يجب أن يُعطينا إجابة "لا". على سبيل المثال، إذا اعتُبر أنّ لدى شخص ما مخاطر ائتمانية متدنية ومنح قرضاً ثم تخلف عن سداده، ذلك سيكون معدلاً إيجابياً خاطئاً. إذ إنّ النموذج تنبأ خطأً بأّن الشخص لديه مخاطر ائتمانية متدنية.

عند إجراء التصحيح من أجل العدالة، قد يكون هناك انخفاض في دقة النموذج، وتوضح الأداة أي تغيير في الدقة يمكن أن ينتج. ونظراً لأنّ تحقيق التوازن بين الدقة والعدالة يعتمد على السياق، فنحن نعتمد على المستخدم في تحديد شكل التوازن. واستناداً إلى سياق الأداة، قد يكون من الأولويات الأسمى ضمان تحقيق نتائج عادلة عوضاً عن تحسين الدقة.

كانت إحدى الأولويات عند تطوير هذه الأداة هي المواءمة مع عملية الابتكار المرن الذي تستخدمه المؤسسات التنافسية اليوم. لذلك، توجّب أن تكون أداتنا قادرة على التعامل مع قدر كبير من البيانات، لكي لا تعيق المؤسسات في سعيها إلى توسيع نطاق إثبات مفهوم مشاريع الذكاء الاصطناعي، كما توجب أيضاً أن تكون سهلة الفهم من قبل المستخدم العادي، وأن تعمل بالتوازي مع مسارات عمل علم البيانات القائمة بحيث لا تُعرقل عملية الابتكار.

لا تفرض أداتنا ببساطة ما هو الإجراء العادل، بل إنها تقيّم وتصحح التحيز ضمن المقاييس التي يضعها مستخدموها الذين يحتاجون في النهاية إلى تحديد المتغيرات الحساسة وحدود الخطأ والمعدلات الإيجابية الخاطئة. ويجب أن تحكم قراراتهم فهم المؤسسة لما نسميه الذكاء الاصطناعي المسؤول، وهي المبادئ الأساسية التي ستتبعها مؤسسة معينة عند تطبيق الذكاء الاصطناعي من أجل بناء الثقة مع أصحاب المصلحة، وتفادي المخاطر في أعمالهم، والإسهام في نشر القيمة في المجتمع.

يعتمد نجاح الأداة ليس فقط على تقديم حلول لتحسين الخوارزميات، ولكن أيضاً على قدرتها على تفسير النتائج وفهمها. والهدف منها هو تسهيل نقاشات ممتدة بين الخبراء في مجال البيانات والخبراء غير المعنيين بالبيانات. من خلال خلق أداة تعطي الأولوية للعمل الإنساني على الأتمتة في مجال التعاون بين الإنسان والآلة؛ نحن نهدف إلى تحفيز مواصلة جدل العدالة ونقلها إلى مستوى ممارسات أخلاقية قابلة للتنفيذ في تطوير الذكاء الاصطناعي.

"تم تطوير نموذج أولي لأداة تقييم العدالة ضمن مجموعة لدراسة البيانات في معهد آلان تورينغ إنستيتوت (Alan Turing Institute). وتقدم مؤسسة أكسنتشر الشكر للمعهد والأكاديميين المشاركين لما قدموه".

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

ﺟﻣﯾﻊ اﻟﺣﻘوق ﻣﺣﻔوظﺔ ﻟﺷرﻛﺔ ھﺎرﻓﺎرد ﺑزﻧس ﺑﺑﻠﯾﺷﻧﻎ، ﺑوﺳطن، اﻟوﻻﯾﺎت اﻟﻣﺗﺣدة اﻷﻣﯾرﻛﯾﺔ - 2019

error: المحتوى محمي !!