facebook
twitter
whatsapp
email
linkedin
messenger

يجب على المسؤولين التنفيذيين المفتونين بالذكاء الاصطناعي أن يفهموا كلاً من الإمكانات والمخاطر المتجذرة في الذكاء الاصطناعي والبيانات. فحتى مع غروب شمس تفاعل البشر مع الذكاء الاصطناعي من خلال وسائل وسيطة مثل الصوت والدردشة، توجد الكثير من حالات الفشل الموثقة لمحاولات الذكاء الاصطناعي التحدث وفهم لغة البشر. وفيما يلي، نسلط الضوء على ثلاثة نماذج حديثة عالية المستوى من "مايكروسوفت" و"جوجل" و"أمازون"، ونبين كيف يمكن لقادة الذكاء الاصطناعي التعلم من هذه الأخطاء لتنفيذ برامج تحمي مبادراتهم القائمة على الذكاء الاصطناعي.

انضم إلى شبكة عالمية من المبتكرين. رشح نفسك الآن إلى جائزة مبتكرون دون 35 من إم آي تي تكنولوجي ريفيو..

(إساءة) تعلم لغة المراهقين

في مارس/آذار 2016، طورت شركة مايكروسوفت بوت دردشة على موقع "تويتر" يستخدم الذكاء الاصطناعي ويحمل اسم "تاي"، وقد بُني عبر استخراج النصوص المستخدمة في محادثات عامة. وهدِف البوت الذي أُعلن أنه ذكاء اصطناعي "متحدث" إلى اختبار حدود لغة الحديث: وصفت الشركة تاي بأنه "عضو جديد في عائلة الذكاء الاصطناعي ينطلق من الإنترنت ولا يكترث بأحد!". وأنّ هذا البوت الآلي سوف يتعلم ويتكيف بناءً على محادثاته على "تويتر".

وللأسف، استغرق الأمر أقل من 24 ساعة كي يقوم محتالون على الإنترنت بتدريب تاي على كتابة تغريدات عنصرية فظيعة وكارهة للنساء وعدائية بشكل عام. ما بدأ على هيئة بوت دردشة مرِح مصمّم للمشاركة في محادثة "عادية وممتعة" تحوّل إلى كابوس للعلاقات العامة.

رسائل تذكير غير مبالية قائمة على الذكاء الاصطناعي

تمتلك حسابات "فيسبوك" ميزة اسمها "الذكريات" (Memories)، تُبرز للمستخدمين ما حدث من أحداث اليوم المماثل في السنوات الماضية. ويمكنها تذكير الأشخاص بعطلات لا تُنسى أو حفلات زفاف الأصدقاء أو غيرها من المناسبات الممتعة. وعلى أي حال، يمكنها أيضاً أن تذكر الأشخاص بذكريات مؤلمة، مثل ذكرى وفاة أحد أفراد العائلة، أو قد تطلب منك أن تتمنى عيداً سعيداً لصديق متوفى.

في أبريل/نيسان 2019، أعلنت شركة "فيسبوك" نيتها لاستخدام الذكاء الاصطناعي في إزالة رسائل التذكير هذه التي تفتقر إلى اللباقة. وللأسف، هذه مهمة صعبة جداً فشل فيها عملاق التواصل الاجتماعي سابقاً. في نوفمبر/تشرين الثاني 2016، ظنّت ميزة إحياء ذكرى المتوفين عن طريق الخطأ أنّ الكثير من المستخدمين الأحياء في عداد الأموات، ومن بينهم أحد أصدقائي.  وكانت ثمة تخمينات أنّ هذا أثّر بشكل غير متكافئ على داعمي الحملة الانتخابية للمرشحة الرئاسية هيلاري كلينتون وأعضائها الذين تلقوا مواساة على نطاق واسع بعد هزيمتها التي أساءت خوارزميات فيسبوك تفسيرها.

ترجمة كراهية النساء

تستخدم ترجمة جوجل الذكاء الاصطناعي والتعلم العميق للبحث في كميات هائلة من البيانات النصية لتقديم خدمة ترجمة آلية لعشرات اللغات.

ولكن في نوفمبر/ تشرين الثاني 2017، أشارت تقارير إلى أّن خوارزميات الذكاء الاصطناعي كانت متحيزة للجنس. على سبيل المثال، في اللغة التركية، يوجد ضمير شخص ثالث مفرد يُلفظ "أو" وهو لا يحدد نوع الجنس، وفي لغتنا نكتب عادة "هو" أو "هي" حسب نوع الجنس. وعند الترجمة من التركية، تقرِّر خوارزمية الترجمة نوع الجنس عند ترجمة ذلك الضمير محايد الجنس، ما يُنتج ترجمات متحيزة للجنس مثل "هو طبيب" أو "هي ممرضة" أو "هو يعمل بجد" أو "هي كسولة". وتتجاوز المشكلة الترجمة من التركية، إذ تحدد الكثير من اللغات الأخرى نوع الجنس بشكل مختلف، ما يسلط الضوء على تعقيد اللغة البشرية. وبينما أصلحت جوجل المشكلة بسرعة بمجرد علمها بها، إلا أنّ هذه الحادثة شكّلت إحراجاً لعملاق التكنولوجيا.

التوظيف المتحيز للجنس

بعدما انهالت ملايين السير الذاتية على شركة أمازون، أشارت تقارير إلى أنّ الشركة حاولت تطوير ذكاء اصطناعي يمكنه فرز المتقدمين المحتملين. وجرى تدريب خوارزمية الذكاء الاصطناعي على سير ذاتية استلمتها الشركة، فتدرس الأنماط في السير الذاتية لموظفين سابقين ناجحين، وتطبق هذه الميزات على المتقدمين الجدد.

وللأسف، عززت الخوارزمية الانحياز في التوظيف للمناصب التي يُهيمن عليها الرجال مثل هندسة البرمجيات. فهي لاحظت نمطاً موجوداً وتدربت عليه. علّمت الخوارزمية نفسها أنّ السير الذاتية التي تضمنت عبارات مثل "المجتمع للنساء العالمات" أقل تفضيلاً، لأنها احتوت على كلمة "النساء". وفي أكتوبر/ تشرين الأول 2018، تخلصت الشركة من المشروع، وفقاً لوكالة رويترز للأنباء.

ماذا يمكننا أن نتعلم من فشل الذكاء الاصطناعي؟

تُعرفنا هذه الأمثلة على أحد المخاطر الرئيسة للذكاء الاصطناعي. أولاً، علينا أن ندرك أنّ مخاطر الذكاء الاصطناعي هي مخاطر على الشركات التجارية. وأنّ جزءاً من قوة الذكاء الاصطناعي والتعلم العميق يتمثل في أنّ تدريب الذكاء الاصطناعي يمكِن أن يتعلم بشكل عشوائي جميع الفوارق في اللغة، حتى إذا لم نوجّهه صراحة للقيام بذلك. وللأسف، فإنّ بإمكانه تعلم توجهات نفضّل ألا يتعلمها، مثل التحيز المتجذر القائم على نوع الجنس في استخدامنا للغة. ويمثل ذلك جزءاً من مخاوف أكبر مرتبطة بالذكاء الاصطناعي، وهي تعزيزه للتحيز والقوالب النمطية التي نمتلكها بشكل متأصل لدينا، ولكننا لا ندركها.

ومن المهم تذكّر أنّ الذكاء الاصطناعي ليس متحيزاً بشكل أساسي. وكما رأينا، التحيز في هذه الخوارزميات هو نتيجة بيانات تدريب متحيزة بناها البشر. فالتكنولوجيا الأساسية ليست عنصرية أو متحيزة للجنس، إنما البيانات التي نُدرب الخوارزميات عليها. وللأسف، لا يمكن أن يكون الحل ببساطة في جمع البيانات غير المتحيزة، لأنّ معظم البيانات البشرية متحيزة أساساً بطريقة ما.

من الضروري أن تبقى الشركات يقظة لتمنع التحيز في أنظمة الذكاء الاصطناعي الخاصة بها. كما أنّ عليها دمج التدريب المضاد للتحيز إلى جانب تدريب الذكاء الاصطناعي وتعلم الآلة لديها، ورصد إمكانية التحيز فيما تقوم به، والحرص على تصحيح مسارها على نحو فعال. وإلى جانب عملياتنا المعتادة الخاصة بالأسئلة والأجوبة حول البرمجيات، لا بد للذكاء الاصطناعي من الخضوع لطبقة إضافية من الأسئلة والأجوبة الاجتماعية، حتى يمكن التعرف على المشاكل قبل وصولها إلى المستهلك وتسببها في نتائج سلبية كبيرة. وعلاوة على ذلك، من الضروري أن يلتحق علماء البيانات ومهندسو الذكاء الاصطناعي الذين يقومون بتدريب النماذج، بدروس حول مخاطر الذكاء الاصطناعي.

والأهم من ذلك كله أنّ قادة الأعمال بحاجة إلى تدريب متخصص في الذكاء الاصطناعي كي يتمكنوا من فهم الإمكانات والمخاطر على حد سواء. ذلك ليس تدريباً تقنياً، ولا يحتاج المسؤولون التنفيذيون لأن يكونوا ممارسين خبراء، ولكنهم بحاجة إلى فهم علم البيانات والذكاء الاصطناعي بما يكفي لإدارة منتجات الذكاء الاصطناعي وخدماته. من الضروري أن يفهم قادة الأعمال إمكانات الذكاء الاصطناعي لتحويل الأعمال إلى الأفضل، إضافة إلى فهم عيوبه وأخطاره.

فهم هذه الأخطار ليس مسؤولية مبادرات الذكاء الاصطناعي الرائدة فحسب، بل هي مسؤولية جميع التنفيذيين. ويمكن لقائد العلاقات العامة الذي يفهم ديناميات التواصل الاجتماعي وثقافة التصيد الفاسدة تجنب أخطار بوت "تويتر" القائم على الذكاء الاصطناعي ذاتي التعلم. ويمكن لمسؤول تنفيذي يعمل في الموارد البشرية وقانون التمييز في التوظيف أن يساعد في تحديد الأخطار المحتملة لبوتات البحث في السير الذاتية. كما أنّ بإمكان مدير يتمتع بخبرة تشغيلية في العديد من الدول أن يحدد الحساسية المحيطة بترجمة ضمائر عديمة الجنس.

تنبع مخاطر الذكاء الاصطناعي من مختلف جوانب الأعمال التجارية، ولا يمتلك أي مدير القدرة على رصد كل شيء. وبالأحرى، في عالم يتغلغل فيه الذكاء الاصطناعي في كل شيء، يجب على الشركات أن تدرب قادة الأعمال لديها على إمكانات الذكاء الاصطناعي ومخاطره، حتى تستطيع جميع مجالات الأعمال رصد الفرص وتحديد المخاوف. إنّ الخبرة المؤسسية لرصد أخطار الذكاء الاصطناعي موجودة بالفعل في شركتك، ولكن ما عليك فعله هو أن تُطلق لها العنان فحسب.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

ﺟﻣﯾﻊ اﻟﺣﻘوق ﻣﺣﻔوظﺔ ﻟﺷرﻛﺔ ھﺎرﻓﺎرد ﺑزﻧس ﺑﺑﻠﯾﺷﻧﻎ، ﺑوﺳطن، اﻟوﻻﯾﺎت اﻟﻣﺗﺣدة اﻷﻣﯾرﻛﯾﺔ - 2020

اترك تعليق

قم بـ تسجيل الدخول لتستطيع التعليق
avatar
  شارك  
التنبيه لـ
error: المحتوى محمي !!