على كل العاملين في مؤسستك استيعاب أخلاقيات الذكاء الاصطناعي

8 دقائق
موضوع أخلاقيات الذكاء الاصطناعي
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

ملخص: عندما تبحث المؤسسات موضوع أخلاقيات الذكاء الاصطناعي، فإنها غالباً ما تتجاهل المصادر الرئيسية لأسوأ المخاطر، ممثلة في موظفي المشتريات وكبار قادة الشركات الذين يفتقرون إلى الخبرة اللازمة لاكتشاف المخاطر الأخلاقية التي تكتنف مشاريع الذكاء الاصطناعي وعلماء ومهندسي البيانات غير المدركين للمخاطر الأخلاقية المترتبة على استحداث تقنيات الذكاء الاصطناعي. ويتطلب إصلاح هذا الخلل توافر الوعي وإقناع كافة العاملين في المؤسسة بالمشاركة في برنامج أخلاقيات الذكاء الاصطناعي. ولتحقيق هذه الغاية، عليك أن تراعي الاستراتيجيات الست التالية: 1) إزالة الخوف من عدم القدرة على استيعاب الموضوع بالسرعة الكافية. 2) تصميم الرسائل بما يناسب المزاج العام لجمهورك. 3) ربط جهودك برسالة شركتك وغرضها. 4) تحديد ما تعنيه الأخلاقيات في بيئة العمل. 5) الاعتماد على الأفراد الموثوق بهم والمؤثرين. 6) عدم التوقف عن التوعية.

توصل الكثير من المؤسسات إلى ضرورة تنفيذ برامج المخاطر الأخلاقية للذكاء الاصطناعي. فقد وردت تقارير إخبارية لا حصر لها تشير إلى وجود أخطاء قاتلة في تكنولوجيا التعرف على الوجه تنم عن التمييز العنصري، إضافة إلى انتهاكات الخصوصية وخوارزميات الصندوق الأسود التي أسفرت عن عواقب وخيمة أثرّت بقوة على حياة الأفراد، وهو ما أدى إلى وضع هذه البرامج على جداول أعمال مجالس الإدارة والرؤساء التنفيذيين وكبار مسؤولي البيانات والتحليلات المحوسبة. وعلى الرغم من ذلك، فإن ما لا يدركه معظم قادة المؤسسات هو أن معالجة هذه المخاطر تتطلب رفع مستوى الوعي بها بين كافة العاملين في المؤسسة. وهؤلاء الذين يدركون هذه الحقيقة لا يعرفون في الغالب كيفية رفع مستوى الوعي بمخاطر الذكاء الاصطناعي.

ويجب أن يمثل هذا أولوية قصوى في الشركات التي تستخدم الذكاء الاصطناعي. فقد قال أكثر من 50% من المسؤولين التنفيذيين إنهم يشعرون بالقلق “الكبير” أو “الشديد” حيال المخاطر الأخلاقية ومخاطر السمعة الناجمة عن استخدام الذكاء الاصطناعي في مؤسساتهم نظراً لمستوى الاستعدادات الحالية وقدرتها على تحديد تلك المخاطر والتخفيف من حدتها. وهذا يعني أن إعداد برامج المخاطر الأخلاقية للذكاء الاصطناعي القادرة على استيعاب الجميع وإقناعهم بالمشاركة فيها ضروري لنشر الذكاء الاصطناعي على مستوى المؤسسة بالكامل. وإذا تم رفع مستوى الوعي بالشكل المطلوب، فإن هذا سيخفف من حدة المخاطر على المستوى التكتيكي ويُفسح المجال للنجاح في تنفيذ برامج المخاطر الأخلاقية للذكاء الاصطناعي وتعميمها على جميع العاملين.

وعادة ما تتعارض عملية رفع مستوى الوعي بهذه الطريقة مع 3 مشكلات رئيسية:

أولاً: يعد مسؤولو المشتريات أحد أكبر مصادر المخاطر الأخلاقية للذكاء الاصطناعي، وأكثرهم تجاهلاً لها. حيث يجري بيع منتجات الذكاء الاصطناعي في معظم أقسام مؤسستك، لكنها تتركّز على نحو خاص في أقسام الموارد البشرية والتسويق والماليات. وإذا كان مسؤولو مشتريات قسم الموارد البشرية لا يعرفون كيفية طرح الأسئلة الصحيحة لفحص منتجات الذكاء الاصطناعي، فقد يعرضون المؤسسة لمخاطر التمييز ضد الأقليات المحمية بموجب القانون في أثناء عملية تعيين الموظفين الجدد.

ثانياً: يفتقر كبار القادة في كثير من الأحيان إلى المعرفة اللازمة لاكتشاف العيوب الأخلاقية في منتجات الذكاء الاصطناعي التي تدخل إلى مؤسساتهم، ما يعرض هذه المؤسسات للخطر، سواء بتلويث سمعتها أو تعريضها لمخاطر قانونية. فعلى سبيل المثال: إذا كان فريق الإنتاج جاهزاً لنشر أحد منتجات الذكاء الاصطناعي ولكنه يحتاج أولاً إلى موافقة مسؤول تنفيذي لا يعرف سوى القليل عن المخاطر الأخلاقية للمنتج، فإن سمعة العلامة التجارية (فضلاً عن سمعة المسؤول التنفيذي نفسه) قد تتعرض لخطر داهم.

ثالثاً: تستلزم برامج المخاطر الأخلاقية للذكاء الاصطناعي وجود علماء ومهندسي بيانات على دراية بالمجال. وإذا لم يكونوا على دراية تامة بالمخاطر الأخلاقية للذكاء الاصطناعي، فقد يفشلون إما في فهم مسؤولياتهم الجديدة على النحو الموضح في البرنامج، أو قد يفهمونها ولكنهم لا يدركون أهميتها، ما يؤدي بدوره إلى عدم أخذها على محمل الجد. من ناحية أخرى، إذا كان مسؤولو مؤسستك يدركون المخاطر الأخلاقية ومخاطر السمعة والمخاطر القانونية للذكاء الاصطناعي، فسيدركون أهمية تنفيذ برنامج يعالج هذه القضايا بشكل منهجي في المؤسسة بأكملها.

يتطلب خلق هذا الوعي في المؤسسة بذل جهود حثيثة. فهو يتطلب توصيل رسالة متسقة ومصممة أيضاً بما يتناسب مع الاهتمامات المحددة لكل مجموعة. إذ تختلف اهتمامات أصحاب المناصب التنفيذية العليا ومسؤولياتهم عن اهتمامات ومسؤوليات مسؤولي ومصممي المنتجات التي تختلف بدورها عن اهتمامات علماء ومهندسي البيانات، ويؤدي التحدث إليهم جميعاً باللغة نفسها إلى عدم فهم أي منهم للرسالة المطلوب توصيلها. ولا يصح أن تكون الرسالة سطحية، وإلا أدت إلى اعتقاد الموظفين بأن موضوع أخلاقيات الذكاء الاصطناعي إما قضية تخص العلاقات العامة فقط أو ترتبط بمجال محدد. ولا بد من وجود قائد محدد من بين أصحاب المناصب التنفيذية العليا يتولى مسؤولية وضع استراتيجية تؤدي إلى رفع مستوى الوعي بين كافة العاملين في المؤسسة، ولا بد أن يشرف هذا القائد على تنفيذها أيضاً لأن هذه المشكلة لن تؤخذ على محمل الجد إذا لم تأت الرسالة من القمة. ونورد فيما يلي نقطة الانطلاق التي يجب أن تبدأ من عندها المؤسسات.

كيفية رفع مستوى الوعي وإقناع الجميع بالمخاطر الأخلاقية للذكاء الاصطناعي

من المهم أن تضمن معرفة كافة الموظفين بالمخاطر الماثلة وشعورهم بأنهم مكلفون جميعاً بنجاح تقنيات الذكاء الاصطناعي في المؤسسة. يجب ألا يدركوا فقط وجود هذه المشكلات، بل يجب أن يعرفوا أيضاً أثر هذه المخاطر على وظائفهم وعلاقتها بالوصف الوظيفي لكلٍّ منهم. إذ يجب أن يعرف كل موظف في قسم الموارد البشرية أنه مكلَّف بتعيين الأشخاص المناسبين لكل وظيفة والاشتراطات اللازمة لذلك، مع إدراك المخاطر الأخلاقية للذكاء الاصطناعي المصاحبة لكل وظيفة. ولكنه منوط أيضاً بتحديد هذه المخاطر والتخفيف من حدتها كجزء من مهمات وظيفته، وذلك من خلال معرفة أن مسؤولياته تملي عليه أيضاً مطالبة مورِّدي الذكاء الاصطناعي الذين يوفرون برمجيات تعيين الموظفين بتقديم وثائق رسمية حول كيفية تحديد أوجه التحيز في منتجات الذكاء الاصطناعي وسبل التخفيف من حدتها.

وإليك 6 إجراءات يمكنك اتخاذها لرفع مستوى الوعي في المؤسسة وتنفيذ مشتريات منتجات الذكاء الاصطناعي بالطريقة الصحيحة:

1. إزالة الخوف من تقنيات الذكاء الاصطناعي وأخلاقياتها

يتمثل أحد العوائق التي تواجهها المؤسسات في خوف الموظفين غير المتخصصين في مجال تكنولوجيا المعلومات من هذا الموضوع. فقد تبدو مفاهيم “الذكاء الاصطناعي” و”تعلم الآلة” و”الخوارزميات التمييزية” عسيرة على الفهم، ما يدفع البعض إلى تحاشي الموضوع من أساسه. ومن أجل رفع مستوى الوعي على مستوى المؤسسة، من المهم أن يصبح الجميع على دراية تامة بالمفاهيم المستخدمة ويرتاحون لها، وحبذا لو استوعبوا الأسس التقنية.

فالإلمام بأساسيات الذكاء الاصطناعي ليس بالمستحيل. وإذا نظرنا، على سبيل المثال، إلى تقنية تعلم الآلة، فسنجد أنها تعني في الأساس محاكاة الأمثلة السابقة والتعلم منها، وهو أمر يعرفه الجميع. وبالمثل، فإن ضعف مستواك في شيء ما بسبب افتقارك إلى الأمثلة الكافية حوله أمرٌ مألوفٌ أيضاً لدى الجميع. وإذا كنت تحذّر الموظفين من الخوارزميات التمييزية، فيمكنك توضيح أن بعضها يتكوّن نتيجة افتقار برمجيات محددة إلى الأمثلة الكافية للتعلم، وبالتالي ترتكب هذه البرمجيات أخطاء (مثل عدم توافر أمثلة كافية لوجوه النساء ذوات البشرة السمراء في برمجيات التعرف على الوجوه، ما يؤدي إلى اختيار البرمجيات لوجوه النساء ذوات البشرة السمراء عن طريق الخطأ). ويمكن عموماً التعبير عن الكثير من المخاطر الأخلاقية للذكاء الاصطناعي ومصادره المختلفة لجمهور غير متخصص في التقنيات التكنولوجية، ما يؤدي إلى اكتساب الموظفين الثقة بالنفس التي يحتاجون إليها للتعامل مع المشكلات.

قد تبدو مطالبة موظفيك في قسم الموارد البشرية والتسويق بالإلمام بأساسيات عمل الذكاء الاصطناعي وكيفية ظهور المخاطر الأخلاقية للذكاء الاصطناعي أمراً صعباً. بيد أن معظم المؤسسات استطاع رفع مستوى الوعي بمخاطر الأمن السيبراني إلى حدٍّ كبير، وهو أمر يستلزم أيضاً الإلمام بالأساسيات المعرفية في مجال الأمن السيبراني، وربما بدت هذه المهمة شبه مستحيلة حينها، إلى أن أخذت الشركات على عاتقها تحقيق هذه الغاية. ولكن إذا كان موظفوك لا يُلمون بالأساسيات، فلن يعرفوا كيفية طرح الأسئلة الصحيحة (على مورّدي الذكاء الاصطناعي، مثلاً) عندما تضطرهم الظروف إلى فعل ذلك.

2. تصميم الرسائل بما يناسب المزاج العام لجمهورك

يعتبر كبار القادة أنفسهم حماة سمعة علاماتهم التجارية، ويحرصون من هذا المنطلق على تلافي كافة المخاطر التي تهدد هذه السمعة. وهم يرون أن التحدث بلغة “المخاطر الأخلاقية ومخاطر السمعة” أمر مهم بالنسبة لهم لمعرفة العلاقة بين موضوع أخلاقيات الذكاء الاصطناعي ومخاوفهم ومسؤولياتهم. من ناحية أخرى، لا يهتم مصممو المنتجات بتجنب المخاطر قدر اهتمامهم بصنع منتجات “رائعة” ومفيدة. ويمكن مخاطبة هذا الجمهور ولفت نظره إلى هذه القضية الحساسة من خلال شرح أثر موضوع أخلاقيات الذكاء الاصطناعي على تحسين تصميم منتجاتهم، خاصة بالنسبة للأعداد المتزايدة من المستهلكين والمواطنين الذين يبدون اهتمامهم البالغ بالقيم بشكل عام. وأخيراً، يريد علماء ومهندسو البيانات نماذج قوية وفاعلة. والتحدث بلغتهم يعني شرح أثر مشكلات الخوارزميات المتحيزة والصناديق السوداء في إضعاف قوة الأدوات المستخدمة أو اعتمادها. فلا أحد يريد بناء نموذج يفتقر إلى الدقة أو لا يمكن استخدامه.

ومن المهم أيضاً أن تضرب أمثلة وتسرد قصصاً تلفت أنظار كل أفراد الجمهور المستهدف إلى انحراف الذكاء الاصطناعي عن أهدافه. ويجب ألا يقتصر هذا على سرد كوارث العلاقات العامة. بل يمكن أن يشمل أيضاً، على سبيل المثال لا الحصر، عجز شركة “أمازون” عن التخفيف من تداعيات التحيّزات في برمجيات التوظيف المدعومة بالذكاء الاصطناعي، وهو ما حدا بالشركة إلى سحب المشروع، مفضلة اتخاذ هذه الخطوة على الاستمرار في شيء قد يضر كلاً من المتقدمين للوظائف والعلامة التجارية على حدٍ سواء. علاوة على ذلك، يجب أن تبذل كل جهد ممكن لاستخدام أمثلة مستقاة من القطاع الذي تعمل فيه شركتك. فهناك حالات أدى فيها الذكاء الاصطناعي إلى تعريض المؤسسات العاملة في قطاع الرعاية الصحية لبعض المخاطر، ولكن إذا كنت تتحدث إلى موظفين في شركة تعمل في مجال التكنولوجيا المالية، فسوف ينجذب الموظفون للقصص التي تتحدث عن شركة تعمل في المجال ذاته.

3. اربط محاولاتك لرفع مستوى الوعي المؤسسي برسالة شركتك أو غرضها

فإذا كان فحوى رسالة الشركة أو غرضها مدمجاً بالفعل في ثقافتها المؤسسية، فاحرص على دمج مناقشتك لأخلاقيات الذكاء الاصطناعي ضمنها. اشرح كيف أن موضوع أخلاقيات الذكاء الاصطناعي وإدارة المخاطر الأخلاقية هي امتداد لتلك الرسالة، وأنها عبارة عن سياج يحمي الشركة مما تريد تلافيه خلال سعيها لأداء هذه الرسالة.

فعلى سبيل المثال: قد تكون رسالة شركتك هي تقديم أفضل نصيحة مالية ممكنة. لكن لا يمكنك تقديم هذه النصيحة ما لم يثق الناس بها، ولن يثق الناس بها إذا أهملت استخدام الذكاء الاصطناعي. وعندما ينحرف الذكاء الاصطناعي عن هدفه، فإن أثر هذا الانحراف سيتفشى على نطاق واسع، لذا فإن تعريف العاملين في مؤسستك بأن تقديم أفضل نصيحة مالية ممكنة يستلزم حماية عملائك وأن حمايتهم تستلزم استخدام الذكاء الاصطناعي بطريقة أخلاقية أو مسؤولة أو موثوقة، فلن ينظروا إلى الذكاء الاصطناعي باعتباره مجرد أداة مساعِدة في العمليات التشغيلية للشركة. ولكنهم سينظرون إليها بدلاً من ذلك باعتبارها امتداداً لرسالة الشركة وقيمها الأساسية.

4. حدد ما يعنيه موضوع أخلاقيات الذكاء الاصطناعي في مؤسستك بطريقة عملية

إذ لا يكفي أن تقول إنكم “تحمون الخصوصية” أو إنكم “تحترمون الخصوصية”، بل يجب أن تفعل شيئاً حيال ذلك. ولكي تضمن الالتزام بقيم أخلاقيات الذكاء الاصطناعي وعدم النظر إليها باعتبارها مجرد مسألة ترتبط بالعلاقات العامة فحسب، احرص على ربطها بسياج حماية الأخلاقيات، كأن تقول مثلاً: “لن نبيع بياناتك أبداً إلى جهات خارجية” أو “سنحرص دائماً على إخفاء هوية البيانات التي تتم مشاركتها مع جهات خارجية”.

وإذا كان لديك بيان مُصاغ بدقة يتناول موضوع أخلاقيات الذكاء الاصطناعي، فهذا يعني أنه يشتمل على هذا السياج الذي يؤدي دوراً مزدوجاً. أولاً: يُعرّف أعضاء فريقك على ما تفعله حالياً (أو ما تخطط لفعله في المستقبل) تجاه المخاطر الأخلاقية للذكاء الاصطناعي. ثانياً: يُوضِّح بما لا يدع مجالاً للشك أن أخلاقيات الذكاء الاصطناعي ليست مسألة مقصورة على العلاقات العامة أو شيئاً مبهماً. فعندما يتم التعبير عن القيم وإيصالها بطريقة تربطها بالأفعال، فستكون رسائلك محل ثقة الجميع ولن تُمحى من ذاكرتهم بسهولة.

ويمكن استعمال عدة طرق لإقناع جمهورك بأن أخلاقيات الذكاء الاصطناعي ليست شيئاً مبهماً وأنه شيء يمكن تنفيذه بيسر وسهولة، وتتمثل إحداها في شرح المسائل الأخلاقية الحقيقية والصعبة التي يجري مواجهتها في قطاع الرعاية الصحية والطرق التي جرى التعامل بها مع هذه المشكلات. وفي هذا السياق، يمكنك مناقشة كيف نجح قطاع الرعاية الصحية في دمج أدوات التخفيف من حدة المخاطر الأخلاقية في البنية التحتية والعمليات حتى تُثبت للآخرين أن تنفيذ هذه الخطوات ليس بالمستحيل.

5. وجِّه الدعوة للعاملين الموثوق بهم والمؤثرين في مختلف التخصصات للانضمام إليك في جهودك

أقرّت بعض المؤسسات، مثل شركة “مايكروسوفت”، نظام “أبطال أخلاقيات الذكاء الاصطناعي”. وهؤلاء الأبطال هم أشخاص من كل أقسام المؤسسة مكلفون برفع مستوى الوعي بالمخاطر الأخلاقية للذكاء الاصطناعي بين زملائهم. وتتمثل إحدى الميزات المهمة لبرنامج أبطال أخلاقيات الذكاء الاصطناعي في أنه يمكّن القادة الذين يتمتعون بثقة أعضاء فرقهم ودعمهم. علاوة على ذلك، فهم يعرفون فرقهم أكثر من الرئيس التنفيذ لشؤون التعلم، مثلاً، أو الرئيس التنفيذ لشؤون البيانات أو أي شخص يرأس استراتيجية التوعية على مستوى المؤسَّسة.

6. لا تتوقف عن التوعية

لا يمكن اعتبار رفع مستوى الوعي المؤسسي شيئاً تفعله في ظهيرة يوم الأربعاء أو خلال عطلة نهاية الأسبوع وكفى. فهو أمر يتطلب وجود نقاط تواصل مستمرة ومتنوعة بين المتحدثين الداخليين والخارجيين، إضافة إلى عقد ورش العمل وإصدار النشرات الإخبارية.. إلخ. إذ تشهد تقنيات الذكاء الاصطناعي وغيرها من التكنولوجيات الناشئة بشكل عام تغيرات وتطورات متلاحقة في واقع الأمر، وتأتي هذه التغيرات مصحوبة بمصادر جديدة للمخاطر الأخلاقية. ولضمان عدم تخلف مؤسستك عن الرَّكب، سيكون تعليم موظفيك باستمرار بمثابة حصن حصين ضد المد المتصاعد للتقدم التكنولوجي.

ويدرك قادة الشركات جيداً أن اكتشاف سبل تطوير تقنيات الذكاء الاصطناعي وشرائها ونشرها بطريقة آمنة وأخلاقية أمر بالغ الأهمية لاستمرار النمو والحفاظ على الميزة التنافسية. ويجب ألا يتم الخلط بين هذا الهدف وأي من الأهداف التقنية التي يحاول علماء ومهندسو البيانات تحقيقها. إذ يتطلب استعمال الذكاء الاصطناعي استيعاب موضوع أخلاقيات الذكاء الاصطناعي بطريقة مسؤولة ومعرفة مخاطره وإقناع كافة العاملين في المؤسسة باستراتيجية محددة تخفف من حدتها، سواء تم استخدامه للأغراض الداخلية أو الخارجية.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .