"ويتف إف إم" (WITF-FM) هي محطة إذاعة عامة تبث الأخبار عبر الراديو والتلفاز والإنترنت، ومقرها في وسط ولاية بنسلفانيا الأميركية، تضع العبارة التالية فوق تغطيات إخبارية مختارة عبر الإنترنت في إشارة ضمنية إلى أخلاقيات الذكاء الاصطناعي: "تسعى ويتف إلى تقديم وجهات نظر دقيقة من أكثر المصادر مصداقية. نحن نبحث عن التحيز أو الافتراضات في عملنا، وندعوك للإشارة إلى ما يفوتنا من هذه الأمور".
ليس مستبعداً بالنسبة لمؤسسات إخبارية أن ترحّب بالتعليقات والآراء من جمهورها، وفي الحقيقة أنّ معظمها يشجع على ذلك. لكن "ويتف" تجاوزت مجرد الدعوة العامة للمشاركة. إذ تسلط هذه العبارة الضوء على احتمال ممارسة التحيز في تقاريرهم الخاصة، ومحاولتهم لتفادي ذلك.
الابتكار المسؤول في تقنيات الذكاء الاصطناعي
تتنامى الحساسيات المعاصرة إزاء التحيز، وسيزداد ذلك بالطبع مع انتشار الذكاء الاصطناعي وتوفره في المجالات كافة. لقد بُنيت معظم أنظمة الذكاء الاصطناعي اليوم من خلال تعلم الآلة، وهي تقنية تتطلب من أي من آلاف الخوارزميات المحتملة أن تقوم بـ "تعلم" أنماط من مخزون هائل من البيانات. ويتعين أن ينتج ذلك نموذجاً يمكنه تنبؤ سيناريوهات العالم الحقيقي المستقبلية، لكن التحيز يحرف دقة هذه النماذج. تبدأ المؤسسات التي تستخدم الذكاء الاصطناعي بإدراك الدور الذي يجب أن تؤديه القيم القوية على مستوى المؤسسات في تعزيز الابتكار المسؤول، ويفعل الكثير من القادة كل ما بوسعهم، كما هو الحال في "ويتف". على سبيل المثال، يقوم مارك بينيوف، المؤسس والرئيس التنفيذي المشارك لشركة "سيلز فورس" (Salesforce)، بدعوة الشركات جهراً لتحمل المسؤولية عن مساهماتها في المجتمع. وتنسجم هذه القيم كثيراً مع ثقافة شركة "سيلز فورس"، التي أعطت الأولوية لمنصبين لم يسبق لهما مثيل: رئيس شؤون المساواة بين الجنسين (توني بروفيت) ورئيسة الاستخدام الأخلاقي والإنساني (باولا غولدمان)، للارتقاء بمستوى المسؤولية عن حماية هذه القيم التنظيمية في المناصب التنفيذية العليا.
يمكن للأعمال التي تتمتع بالتزام قوي على مستوى المؤسسة، مواءمة عمليات اتخاذ قرارات مستندة إلى القيم وتوزيعها وتوسيع نطاقها، ما يبني ثقة هائلة بأصحاب المصلحة الداخليين والخارجيين. ويشكّل ذلك حجر الأساس بالنسبة لمؤسسة مسؤولة.
لكن الحفاظ على قيم المؤسسة على مستوى المنتجات والخدمات، وخصوصاً عندما تبدأ المؤسسات باستخدام الذكاء الاصطناعي للمساعدة في في اتخاذ القرارات أو دراستها، سيتطلب حوكمة داخلية قوية. فكّر في وضع يُنظر فيه إلى تكنولوجيا الذكاء الاصطناعي على أنها غير عادلة أو معطوبة. هل يمكن تحميل المسؤولية للصانع؟ هل يوجد ملجأ للمستهلكين في شكل مهندس مسؤول أو مجلس حوكمة داخلي أو حتى حوكمة خارجية؟ بالعودة إلى مثال "سيلز فورس" مرة أخرى، تحكم الشركة نفسها من خلال لجنة أخلاقيات تشارك فيها نسبة كبيرة من أصحاب المصلحة وتشرف على القرارات المرتبطة بالأخلاقيات في المؤسسة.
يمكن لكل مؤسسة إنشاء إطار حوكمة داخلي قوي لتناول كيفية تصميم الذكاء الاصطناعي وتطبيقه. وقد أصدرت شركة "أكسنتشر" (Accenture)، بالتعاون مع معهد الأخلاقيات في جامعة "نورث وسترن" (Northeastern University)، تقريراً عن بناء لجان الأخلاقيات المتعلقة بالبيانات والذكاء الاصطناعي، يمكن اعتباره كدليل إرشادي. يقدم هذا التقرير خريطة طريق ويحدد قرارات رئيسة لا بد للمؤسسات من اتخاذها: كيف يبدو النجاح؟ ما هي القيم التي يتعين على اللجنة تعزيزها وحمايتها؟ ما نوع الخبرات المطلوبة؟ ما هو اختصاص اللجنة؟ ما هي المعايير التي تؤخذ بعين الاعتبار في إطلاق الأحكام؟
وضع هذا المستوى من الحوكمة الأخلاقية بالغ الأهمية لمساعدة التنفيذيين على التخفيف من مخاطر التراجع، لأنّ معالجة تحيز الذكاء الاصطناعي يمكن أن تكون معقدة للغاية. يمتلك علماء البيانات ومهندسو البرمجيات تحيزاً مثل الجميع، وعندما يسمحون لهذه التحيزات بالتسلل إلى الخوارزميات أو مجموعات البيانات المستخدمة لتدريب تلك الخوارزميات، بغض النظر عن عدم التعمد، يمكن أن يتسبب ذلك بشعور من يتعرضون للذكاء الاصطناعي بأنه تمت معاملتهم بطريقة مجحفة. لكن التخلص من التحيز من أجل اتخاذ قرارات منصفة لا يمثل معادلة مباشرة.
الكثير من التعريفات العامية للـ "تحيز" تتضمن "الإنصاف"، ولكن يوجد فارق مهم بين الاثنين. التحيز هو إحدى خصائص النماذج الإحصائية، لكن الإنصاف هو حكم ضد قيم المجتمع. الفهم المشترك للإنصاف مختلف على مستوى الثقافات. لكن الأمر الأهم هو فهم العلاقة بينهما. قد يكون الإحساس الداخلي هو أنّ الإنصاف يتطلب عدم التحيز، لكن يجب على علماء البيانات في واقع الأمر أن يقوموا في أحوال كثيرة بتقديم التحيز من أجل تحقيق الإنصاف.
انظر في نموذج بُني لتبسيط علمية التوظيف أو الترقيات. إذا كانت الخوارزمية تتعلم من بيانات قديمة، حيث كانت النساء أقل تمثيلاً في القوة العاملة، فستظهر تحيزات لا تعد ولا تحصى ضد المرأة في النموذج. ولتصويب هذا، فقد يختار علماء البيانات تقديم التحيز، موازنة تمثيل الجنس في بيانات قديمة، أو إنشاء بيانات مصطنعة لسدّ الفجوات، أو التصحيح لمعالجة متوازنة (إنصاف) في تطبيق قرارات مستندة إلى البيانات. وفي الكثير من الحالات، لا توجد طريق لتكون غير متحيز ومنصف على حد سواء.
يمكن للجنة الأخلاقيات المساعدة ليس فقط من خلال الحفاظ على نوايا المؤسسة المستندة إلى القيم، بل أيضاً من خلال زيادة الشفافية في كيفية استخدامها للذكاء الاصطناعي. لكن حتى عندما يجري التعامل مع تحيز الذكاء الاصطناعي، فقد يستمر في إزعاج المستخدمين النهائيين وإحباطهم، وتقوم معظم الشركات التي تستخدم الذكاء الاصطناعي اليوم بتعريض الموظفين لهذا التحيز دون إعطائهم الكثير من التفويض في غضون ذلك. قم بمراعاة تجربة استخدام تطبيق الخرائط. عندما يُقال للمسافرين ببساطة عن أي طريق يتعين أن يسلكوه، فهذه تجربة مجردة من التفويض. لكن عندما يُعرض على المستخدمين مسارات بديلة فهم يشعرون بثقة أكبر في المسار الذي وقع عليه الاختيار لأنهم تمتعوا بتفويض أكبر أو تقرير المصير في عملية الاختيار تلك. زيادة التفويض أثناء استخدام الذكاء الاصطناعي هي حماية أخرى يمكن للحوكمة القوية المساعدة في ضمان وجودها.
لجنة أخلاقيات الذكاء الاصطناعي
الحكومات التي تختار تأسيس لجنة أخلاقيات لا تعالج التحيز البشري والتحيز الإحصائي والإنصاف فحسب، بل إنّ نطاق اهتمامها عادة ما يكون أشمل بكثير، وغالباً ما يتضمن رغبة في زيادة النضج التنظيمي فيما يتعلق بكيفية تأثير منتجاتها وخدماتها على أصحاب المصلحة، بمن فيهم المجتمعات المدنية. تقدم الحوكمة القائمة على المجتمع حلقة آراء تقويمية تنظيمية حول كيفية أداء الذكاء الاصطناعي في العالم الحقيقي، ما يوفر رؤى قيّمة للمصمّمين والمهندسين والفرق التنفيذية. يتعين أن تتشكل اللجنة من أفراد يمثلون آراء مختلفة، ويمتلكون وجهات نظر داخلية وخارجية، ومؤهلات فنية وغير فنية مختلفة. ويتعين دراسة أمور مختلفة وبلورتها بشكل جيد، وهذه الأمور هي: من يجلس في هذه اللجان، وسبب اختيارهم، والجهة التي يخضعون للمساءلة من طرفها، وهدفهم.
ثلاث جوانب للنمو في مجال أخلاقيات الذكاء الاصطناعي
وللتقدم في هذا المجال، يتعين على المؤسسات التركيز على ثلاثة جوانب للنمو:
- تأسيس حوكمة للأخلاقيات والذكاء الاصطناعي: يمكن أن تكون العواقب غير المرغوبة للذكاء الاصطناعي وخيمة، وقد تمثل مخاطر وجودية بالنسبة للمؤسسات. وتعتبر الحوكمة القوية التي تشارك فيها نسبة كبيرة من أصحاب المصلحة بمثابة الفرصة الأفضل التي يمكن للمؤسسات من خلالها التعرف على المخاطر المحتملة وإدارتها. وتجد بعض المؤسسات أنّ من الأجدى لها تنفيذ "حوكمة أساسية"، أي عمليات دمج عمليات قائمة على الفريق وتوفر الحد الأدنى من الاحتكاك وتمتلك الاحتمال الأقل لتأخير مشروع ما. وبينما قد تبدو هذه طريقة ملائمة للبدء، إلا أنّ قيمتها الاستراتيجية بالنسبة للمؤسسة ستكون محدودة.
- صف كيفية حدوث الإنصاف أو وقته، وكيفية المساءلة عن التحيز أو ماهية هذه التحيزات: تستثمر المؤسسات إلى جانب علماء البيانات المسؤولين قدراً هائلاً من الوقت والموارد في التداول حول أي التحيزات موجودة في البيانات، وطريقة التعامل معها، وما يمكن تضخيمه أو التخفيف منه من خلال اختيار الخوارزميات. وقد تؤثر هذه التحيزات على الإنصاف المُتصوّر لنماذج الذكاء الاصطناعي، لذا يتعين دراستها بعناية مسبقاً.
- توفير آليات يجري اللجوء إليها: يتعين على كل مؤسسة تنشر الذكاء الاصطناعي أن تكون قادرة على توضيح السبب الذي يجعل الحل أفضل من الحلول الموجودة، والمقاييس التي اعتمدتها للوصول إلى هذه النتيجة. ويؤسس هذا لما يتعين أن يتوقعه الخاضعون للذكاء الاصطناعي. عندما يفشل نظام ذكاء اصطناعي في الإيفاء بتوقعات المستخدم النهائي، يجب أن يكون لدى ذلك المستخدم أشكال فورية من الملاجئ يسهل الوصول إليها. ويتعين على المؤسسات دراسة طرق توفر ملجأ للمهندس المسؤول (أو الفريق الذي يمتلك المنتج)، وحوكمة داخلية (مثل ذكاء اصطناعي أو لجنة أخلاقيات)، وحوكمة خارجية (مثل جهة تنظيمية).
من المؤكد أنّ طريقة المؤسسات في اختيار التعامل مع التحيز والإنصاف والحوكمة والملجأ بالنسبة لأخلاقيات الذكاء الاصطناعي ستكون مختلفة، لكن الحاجة لإقامة حوكمة قوية ستزيد بالنسبة للجميع. وسيتمتع من يبدؤون بذلك في مراحل مبكرة بمزايا سوقية في كل من ظروف العمل من شركة لشركة ومن شركة إلى المستهلكين. وقد يجد ضعيفو الأداء أنفسهم خارج المنافسة، بوجود منافسين يديرون المخاطر الرقمية التي تواجههم، ومستهلكين يسعون إلى الإنصاف والمساءلة في التكنولوجيات التي يختارون استخدامها.
اقرأ أيضاً: