تمت عملية الاشتراك بنجاح

إغلاق

عذراً، أنت مشترك مسبقاً بالنشرة البريدية

إغلاق
facebook
twitter
whatsapp
email
linkedin
messenger
ملخص: عندما تبحث المؤسسات موضوع أخلاقيات الذكاء الاصطناعي، فإنها غالباً ما تتجاهل المصادر الرئيسية لأسوأ المخاطر، ممثلة في موظفي المشتريات وكبار قادة الشركات الذين يفتقرون إلى الخبرة اللازمة لاكتشاف المخاطر الأخلاقية التي تكتنف مشاريع الذكاء الاصطناعي وعلماء ومهندسي البيانات غير المدركين للمخاطر الأخلاقية المترتبة على استحداث تقنيات الذكاء الاصطناعي. ويتطلب إصلاح هذا الخلل توافر الوعي وإقناع كافة العاملين في المؤسسة بالمشاركة في برنامج أخلاقيات الذكاء الاصطناعي. ولتحقيق هذه الغاية، عليك أن تراعي الاستراتيجيات الست التالية: 1) إزالة الخوف من عدم القدرة على استيعاب الموضوع بالسرعة الكافية. 2) تصميم الرسائل بما يناسب المزاج العام لجمهورك. 3) ربط جهودك برسالة شركتك وغرضها. 4) تحديد ما تعنيه الأخلاقيات في بيئة العمل. 5) الاعتماد على الأفراد الموثوق بهم والمؤثرين. 6) عدم التوقف عن التوعية.

توصل الكثير من المؤسسات إلى ضرورة تنفيذ برامج المخاطر الأخلاقية للذكاء الاصطناعي. فقد وردت تقارير إخبارية لا حصر لها تشير إلى وجود أخطاء قاتلة في تكنولوجيا التعرف على الوجه تنم عن التمييز العنصري، إضافة إلى انتهاكات الخصوصية وخوارزميات الصندوق الأسود التي أسفرت عن عواقب وخيمة أثرّت بقوة على حياة الأفراد، وهو ما أدى إلى وضع هذه البرامج على جداول أعمال مجالس الإدارة والرؤساء التنفيذيين وكبار مسؤولي البيانات والتحليلات المحوسبة. وعلى الرغم من ذلك، فإن ما لا يدركه معظم قادة المؤسسات هو أن معالجة هذه المخاطر تتطلب رفع مستوى الوعي بها بين كافة العاملين في المؤسسة. وهؤلاء الذين يدركون هذه الحقيقة لا

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الاميركية - 2021

اترك تعليق

قم بـ تسجيل الدخول لتستطيع التعليق
avatar
  شارك  
التنبيه لـ
error: المحتوى محمي !!