طريقة أفضل لاعتماد تقنيات الذكاء الاصطناعي

15 دقيقة
أفضل طريقة لاعتماد تقنيات الذكاء الاصطناعي
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

أجرى معهد القوى العاملة الأميركية استقصاء عام 2018 حول طريقة اعتماد تقنيات الذكاء الاصطناعي بمشاركة 3,000 مدير من 8 دول صناعية وصف فيه غالبيتهم الذكاء الاصطناعي أنه أداة إنتاجية مهمة.

ومن السهل معرفة السبب، فللذكاء الاصطناعي فوائد ملموسة في سرعة معالجة البيانات بدقة ونظام (فالآلات لا ترتكب أخطاء لأنها لا تتعب)، ولهذا يعتمد عليها الآن الكثير من المتخصصين، فعلى سبيل المثال يستخدم بعض الأطباء أدوات الذكاء الاصطناعي للمساعدة في تشخيص الأمراض وتحديد العلاج المناسب.

لكن المشاركين في الاستقصاء عبّروا أيضاً عن مخاوفهم من استيلاء الذكاء الاصطناعي على وظائفهم، ولم يكن هذا رأيهم وحدهم، فقد ذكرت صحيفة “الغارديان” مؤخراً أن أكثر من 6 ملايين عامل في المملكة المتحدة يخشون أن تحل الآلات محلهم، وترددت هذه المخاوف على ألسنة عدد من الأكاديميين والمسؤولين التنفيذيين الذين نلتقيهم في المؤتمرات والندوات، وهكذا يمكن صياغة مزايا الذكاء الاصطناعي بصورة أكثر قتامة: لماذا ستكون هناك حاجة للبشر في حين أن الآلات تؤدي العمل بصورة أفضل؟

ينذر تفشي هذه المخاوف بضرورة الفحص النافي للجهالة من قِبَل المؤسسات الساعية إلى جني فوائد الذكاء الاصطناعي عند عرض هذه التقنيات على الكوادر البشرية التي يُتوقَّع أن تعمل بصحبتها. يقول أندرو ويلسون الرئيس التنفيذي للمعلومات بشركة “أكسنتشر” (Accenture) حتى يناير/كانون الثاني 2020: “كلما زاد تركيز المؤسسات على دعم العنصر البشري للذكاء الاصطناعي، ودعم الذكاء الاصطناعي للعنصر البشري، زادت القيمة المحققة”، فقد توصلت شركة “أكسنتشر” إلى أن الشركات التي توضح أنها تستخدم الذكاء الاصطناعي بهدف مساعدة الأفراد وليس استبدالهم تتفوق بصورة ملحوظة على الشركات التي لا تعتمد هذا المقصد (أو التي لا تعلن بوضوح عن أهداف الذكاء الاصطناعي) في معظم محاور الإنتاجية الإدارية، لاسيما السرعة وقابلية التوسّع وفاعلية صناعة القرار.

فكرة المقالة باختصار

المشكلة

تحاول الكثير من الشركات جاهدة تطبيق الذكاء الاصطناعي ولكنها تخفق في تحقيق التحسينات الإنتاجية التي ترجوها.

السبب

إعراض المسؤولين التنفيذيين في أغلب الأحيان عن توضيح أنهم يستعينون بالذكاء الاصطناعي لمساعدة الأفراد على زيادة الإنتاجية وليس بغرض استبدالهم.

طريقة الحل

يجب التعامل مع مسألة اعتماد الذكاء الاصطناعي كالتعامل مع إعداد الموظفين الجدد، وتتكون تلك العملية من 4 مراحل: الذكاء الاصطناعي بصفته مساعداً، ومراقباً، ومدرباً، وزميلاً في فريق العمل.

بعبارة أخرى، يجب تهيئة الذكاء الاصطناعي لتحقيق النجاح بدلاً من الفشل، تماماً كما يحدث عند ضم إحدى الكفاءات الجديدة إلى فريق العمل، فصاحب العمل الذكي هو الذي يتولى تدريب الموظفين الجدد بمنحهم مهمات بسيطة تُكسبهم خبرة عملية في سياق غير خطير، ويكلف الموجهين بتقديم المساعدة والمشورة لهم، وهذا يتيح للموظفين الجدد التعلم بينما يركز الآخرون على المهمات الأكثر أهمية، ومع اكتسابهم الخبرة وإثبات قدرتهم على أداء مهمات وظائفهم، يزداد اعتماد موجهيهم عليهم واللجوء إليهم طلباً للمشورة ويوكلون إليهم مهمة اتخاذ القرارات المحورية، وبمرور الوقت يصبح المتدرب شريكاً يسهم بمهاراته وتصوراته.

اقرأ أيضاً: كيف يمكن أن تفلح جهودك في الذكاء الاصطناعي؟

ونؤمن بإمكانية نجاح هذا النهج مع الذكاء الاصطناعي، وسنعتمد في السطور التالية لهذا المقال على أبحاث واستشارات أجريناها بأنفسنا وأجراها آخرون غيرنا بشأن الذكاء الاصطناعي وتنفيذ أنظمة المعلومات، إلى جانب دراسات مؤسسية حول موضوعات الابتكار وممارسات العمل، لتقديم نهج مكوّن من أربع مراحل لتطبيق الذكاء الاصطناعي، فهو يتيح للمؤسسات إمكانية تعزيز ثقة الأفراد في إدارة الشركة، وهو شرط أساسي لتبني هذا النهج، وطمأنتهم إلى العمل في ظل نظام معرفي مشترك بين الإنسان والذكاء الاصطناعي وقادر على تطوير أداء الطرفين باستمرار. وقد جربت الكثير من المؤسسات المرحلة الأولى، وأحرز بعضها تقدماً وانتقل إلى المرحلتين الثانية والثالثة، ويمكن اعتبار المرحلة الرابعة في الوقت الحالي تمريناً “لاستشراف المستقبل” بطريقة تتيح لنا رؤية بعض الإشارات المبكرة، ولكنها ممكنة من منظور تقني ومن شأنها أن تضيف قيمة أكبر للشركات في أثناء تطبيقها لتقنيات الذكاء الاصطناعي.

طريقة اعتماد تقنيات الذكاء الاصطناعي

طريقة اعتماد تقنيات الذكاء الاصطناعي

المرحلة الأولى

المساعد

يمكن تشبيه المرحلة الأولى لاعتماد الذكاء الاصطناعي بعملية تدريب أحد المساعدين، حيث تبدأ بتعليم الموظف الجديد بعض القواعد الأساسية، ثم توكل إليه بعض المهمات البسيطة ولكن أداءها يستغرق منك وقتاً طويلاً (مثل ملء الاستمارات الإلكترونية أو تلخيص المستندات) حتى تتفرغ للتركيز على الجوانب الأكثر أهمية من وظيفتك، وفي هذه الأثناء يتعلم المتدرب من خلال مشاهدتك وأدائه للمهمات وطرحه للأسئلة.

ويُعد فرز البيانات إحدى المهمات الشائعة التي توكَل إلى مساعدي الذكاء الاصطناعي، ومن أمثلة ذلك أنظمة التوصية التي استخدمتها الشركات منذ منتصف التسعينيات لمساعدة العملاء على الاختيار من بين آلاف المنتجات والعثور على المنتجات الأكثر ملاءمة لهم. وتُعد “أمازون” و”نتفليكس” من بين الشركات الرائدة في هذه التقنية.

يمكن لمس فوائد الذكاء الاصطناعي عند الإقدام على اتخاذ كم هائل من القرارات في ظل شعور الموظفين البشر بالإرهاق أو تشتت الذهن.

ويشهد قطاع الأعمال في الآونة الحالية تزايد عدد القرارات التي تحتاج لهذا النوع من فرز البيانات، فعلى سبيل المثال، عندما يهم مدراء المحافظ الاستثمارية باختيار الأسهم التي يُفضَّل الاستثمار فيها، فإنهم يجدون أن المعلومات المتاحة أكثر بكثير مما يستطيع العنصر البشري معالجته بصورة مناسبة، هذا بالإضافة إلى ظهور معلومات جديدة طوال الوقت تُضاف إلى أرشيف السجلات. وهنا يأتي دور البرنامج الذي يستطيع تسهيل المهمة من خلال حصر خيارات الأسهم بصورة فورية لتلبية معايير الاستثمار المحددة سلفاً. وفي الوقت ذاته، يمكن تحديد الأخبار الأكثر صلة بالشركة من خلال معالجة اللغات الطبيعية، بل ويمكن كذلك تقييم الشعور العام حول إحدى المناسبات المقبلة التي ستشهدها الشركات كما هو موضح في تقارير المحللين، وتُعد شركة “ماربل بار أسيت مانجمنت” (MBAM) المتخصصة في إدارة الاستثمارات، والتي تأسست عام 2002 في لندن، إحدى الشركات التي بادرت منذ وقت مبكر باستخدام هذه التقنيات داخل مكان العمل، وطورت منصة حديثة تسمى “ريد” (RAID) لمساعدة مدراء المحافظ الاستثمارية على غربلة الكميات الهائلة من المعلومات المتوافرة حول فعاليات الشركات والتطورات الإخبارية، وحركة الأسهم.

اقرأ أيضاً: اتباع نهج الأنظمة في اعتماد تقنيات الذكاء الاصطناعي

ثمة طريقة أخرى للاستفادة من إمكانات الذكاء الاصطناعي وذلك بوضع نموذج لما يمكن للعنصر البشري فعله، وهو ما يستطيع أيٌ من مستخدمي “جوجل” ملاحظته فور كتابتهم لأي عبارة في صندوق البحث. ويوفر النص التنبؤي بالهاتف الذكي طريقة مماثلة لتسريع عملية الكتابة، وجرى تطوير هذا النوع من نمذجة الاستخدام المتعلقة بما يُسمى أحياناً بالتشغيل الذاتي التقديري منذ أكثر من 30 عاماً، ويمكن تطبيقها بسهولة عند صناعة القرار، ويمكن لتقنيات الذكاء الاصطناعي استخدامه لتحديد الخيار الذي سيتخذه الموظف على الأرجح من واقع الاختيارات السابقة لهذا الموظف، وتقترح هذا الاختيار كنقطة انطلاق عندما يواجه الموظف قرارات متعددة. فدورها هنا يقتصر على تسريع عملية صناعة القرار وليس أداء الوظيفة.

دعونا نلقِ نظرة على هذه المسألة ضمن سياق محدد، فعندما يحدد موظفو شركة الطيران مقدار الأطعمة والمشروبات الذي سيحتاجون إليه خلال رحلة معينة، فإنهم يملؤون قوائم الوجبات التي تتضمن حسابات معينة إلى جانب بعض الافتراضات استناداً إلى خبرتهم في الرحلات الجوية السابقة، وهم يعلمون جيداً أن اتخاذ الخيارات سيجر عليهم المتاعب، إذ إن أي نقص في وجبات الطعام سيزعج الركاب وقد يدفعهم إلى تجنب السفر على طائرات الشركة في المستقبل، وفي الوقت نفسه فإن الوجبات الزائدة على الحاجة تعد نوعاً من إهدار الموارد وتتسبب في استهلاك الطائرة لكمية أكبر من الوقود دون داع.

يمكن الاستفادة إلى حدٍ كبير من الخوارزميات في هذا السياق، ذلك أن تقنيات الذكاء الاصطناعي تستطيع التنبؤ بما سيطلبه مدير خدمات تقديم الطعام بشركة الطيران من خلال تحليل خياراته السابقة أو استخدام القواعد التي أرساها من قبل، ويمكن تعديل خاصية “الإكمال التلقائي للوجبات الموصى بها” لكل رحلة باستخدام جميع البيانات السابقة ذات الصلة، بما في ذلك حجم استهلاك الأطعمة والمشروبات خلال الرحلة المعنية وحتى سلوك الشراء السابق للمسافرين في بيان هذه الرحلة، ولكن كما هو الحال مع كتابة النصوص التنبؤية، تظل حرية المستخدمين مكفولة لاختيار ما يشاؤون، فهذا قرارهم وحدهم، ويقتصر دور الذكاء الاصطناعي على مساعدتهم عن طريق محاكاة أسلوبهم في اتخاذ القرارات أو توقعه.

يُفترَض بالمدراء التعامل مع الذكاء الاصطناعي بهذه الطريقة دون أن يمثل لهم الأمر معضلة تُذكر، ولا أدل على هذا من استخدامنا للطريقة ذاتها في حياتنا الشخصية بكل سهولة حين نسمح لخاصية الإكمال التلقائي بملء النماذج الإلكترونية نيابة عنا، ولتطبيق هذا المنهج في العمل يمكن للمدراء، على سبيل المثال، وضع قواعد محددة لمساعد الذكاء الاصطناعي لاتباعها عند إكمال النماذج. في الواقع، يعتبر الكثير من أدوات البرمجيات المستخدمة حالياً داخل أماكن العمل (مثل برامج التصنيف الائتماني) بمثابة حزم لقواعد صناعة القرار المحددة سلفاً بواسطة عنصر بشري، وبمقدور مساعد الذكاء الاصطناعي تحسين هذه القواعد من خلال تدوين الظروف التي يمر بها المدير في الحقيقة عند صناعة القرار، ومن نافلة القول أن هذا التعلم لا يتطلب أي تغيير في سلوك المدير، ناهيك عن أي جهد “لتعليم” المساعد.

المرحلة الثانية

المراقب

تتمثل الخطوة التالية في إعداد نظام الذكاء الاصطناعي لتقديم آراء تقييمية آنية، فبفضل برامج تعلُّم الآلة بات بالإمكان الآن تدريب الذكاء الاصطناعي على التنبؤ بدقة بقرار المستخدم في موقف معين (كتلافي الهفوات غير العقلانية، مثلاً، نتيجة الثقة المفرطة أو الإرهاق)، فإذا أقدم المستخدم على اتخاذ قرار لا يتسق مع اختياراته السابقة، فيمكن للنظام الإبلاغ عن هذا التناقض، ويمكن لمس فوائد هذا المنهج عند الإقدام على اتخاذ كم هائل من القرارات في ظل شعور الموظفين البشريين بالإرهاق أو تشتت الذهن.

فقد أثبتت الأبحاث في علم النفس والاقتصاد السلوكي والعلوم المعرفية امتلاك البشر لإمكانات فكرية محدودة وقاصرة، خاصة عندما يتعلق الأمر بالمشاكل الإحصائية والاحتمالية التي يشيع وجودها في قطاع الأعمال، وتوصل العديد من الدراسات المتعلقة بالأحكام القضائية (والتي شارك فيها تشين بصفته مؤلفاً مشاركاً) إلى أن القضاة يصدرون معظم الأحكام الملزمة بمنح حق اللجوء السياسي قبل وقت الغداء مقارنة بأحكامهم بعد وقت الغداء، وأن عدد الأحكام القضائية بالسجن المخفف في حال فوز الفريق الذي يشجعونه في دوري كرة القدم الأميركية في اليوم السابق يفوق عددها حال خسارته، وأنهم يتساهلون مع المدعى عليه إذا حل يوم ميلاده، وهكذا تتضح إمكانية تحقيق العدالة بصورة أفضل في حال حصول العنصر البشري المسؤول عن صناعة القرار على مساعدة من برامج تنبهه إلى تناقض القرار الذي يخطط لاتخاذه مع قراراته السابقة أو مع القرار المتوقع وفقاً لتحليل المتغيرات القانونية البحتة.

اقرأ أيضاً: كيف استفادت بعض الشركات من تقنيات الذكاء الاصطناعي؟

يستطيع الذكاء الاصطناعي تقديم هذا النوع من المدخلات، فقد أثبتت دراسة أخرى (والتي شارك فيها تشين أيضاً بصفته مؤلفاً مشاركاً) أن برامج الذكاء الاصطناعي التي تعالج نموذجاً يتألف من المتغيرات القانونية الأساسية (التي حددها القائمون على الدراسة) تستطيع التنبؤ بالأحكام القضائية المرتبطة بمنح حق اللجوء من عدمه بدقة تقارب 80% منذ تاريخ نظر القضية، وأضاف القائمون على الدراسة خاصية تعليمية إلى البرنامج أتاحت له إمكانية محاكاة عملية صناعة القرار لكل قاضٍ على حدة استناداً إلى أحكامه السابقة.

يمكن تطبيق المنهج ذاته في سياقات أخرى، على سبيل المثال، عندما يفكر مدراء المحافظ الاستثمارية بشركة “ماربل بار أسيت مانجمنت” في قرارات الشراء أو البيع التي قد ترفع المخاطر الإجمالية للمحفظة عن طريق زيادة المخاطر المحيطة بقطاع أو منطقة جغرافية معينة، يصدر النظام تنبيهاً عبر ظهور نافذة منبثقة في أثناء إجراء المعاملات المحوسبة ليتيح لهم إعادة النظر في القرار المتخذ بما يلائم الوضع الجديد، ويستطيع مدير المحفظة الاستثمارية تجاهل هذه الآراء التقييمية شريطة مراعاة حدود المخاطر الموضوعة من قبل الشركة، ولكن على أي حال تساعد هذه الآراء التقييمية مدير المحفظة على التفكير ملياً في قراراته.

تجدر الإشارة هنا إلى أن الذكاء الاصطناعي ليس “على صواب” دائماً بكل تأكيد، ففي كثير من الأحيان لا تراعي مقترحاته بعض المعلومات الخاصة الموثوقة التي قد تنمو إلى علم صانع القرار البشري، وعليه قد يتسبب الذكاء الاصطناعي في توجيه الموظف بعيداً عن المسار السليم بدلاً من تصحيحه ببساطة بسبب التحيزات السلوكية المحتملة، لذا لابد من استخدام الذكاء الاصطناعي بطريقة تشبه الحوار، حيث تقدم الخوارزمية إشارات تنبيهية وفقاً للبيانات المتوافرة لديها بينما يقوم الإنسان بتعليم الذكاء الاصطناعي من خلال توضيح سبب تجاوزه لإشارات تنبيهية معينة، وبذلك يزداد نفع الذكاء الاصطناعي مع الحفاظ على استقلالية العنصر البشري الذي يتولى صناعة القرار.

لكن، وللأسف، هناك الكثير من أنظمة الذكاء الاصطناعي المُعدَّة لانتزاع هذه الاستقلالية، فبمجرد أن تصدر الخوارزمية إشارة تنبيهية تصنِّف معاملة مصرفية على أنها عملية احتيالية محتملة، مثلاً، غالباً ما يعجز الموظفون عن الموافقة على المعاملة دون اعتمادها من مشرف أو حتى مدقق خارجي، وفي بعض الأحيان يكون التراجع عن اختيار الآلة أقرب إلى المستحيل، وهو ما يمثل مصدراً مستمراً للإحباط لكل من العملاء ومسؤولي خدمة العملاء، وكثيراً ما يكون التفسير المنطقي لاختيار الذكاء الاصطناعي مبهماً، ولا يملك الموظفون التشكيك في هذه الاختيارات حتى إذا ثبت خطؤها.

وتُعد الخصوصية مشكلة كبيرة أخرى عندما تجمع الآلة بيانات حول القرارات التي يتخذها الأفراد، فبالإضافة إلى ترك الحرية للبشر فيما يخص المعلومات التي يتبادلونها مع الذكاء الاصطناعي، فإننا نحتاج إلى ضمان الحفاظ على سرية أي بيانات تجمعها الآلة عنهم، ولا بد من الفصل بين الفريق الهندسي والإدارة، وإلا سيشعر الموظفون بالقلق مما سيلحق بهم إذا تفاعلوا بحرية مع النظام وارتكبوا أخطاء.

كما يجب على الشركات وضع قواعد تنظّم عملية التصميم مع الذكاء الاصطناعي والتفاعل معه لضمان الاتساق المؤسسي من حيث المعايير والممارسات، قد تحدد هذه القواعد مستوى الدقة التنبؤية المطلوبة لإظهار إشارة تنبيهية أو لتقديم سبب لظهور هذه الإشارة التنبيهية؛ ومعايير اتباع إشارة تنبيهية معين؛ والشروط التي يجب على الموظف بموجبها إما اتباع تعليمات الذكاء الاصطناعي أو إحالتها إلى أحد رؤسائه بدلاً من قبولها أو رفضها.

وننصح المدراء ومصممي الأنظمة بإشراك الموظفين في التصميم لمساعدتهم على الإحساس بالسيطرة في المرحلة الثانية، وذلك بإشراكهم كخبراء مختصين بتحديد البيانات التي سيجري استخدامها وتحديد الحقائق الأساسية، وتعريفهم بالنماذج في أثناء مراحل التطوير، وتوفير التدريب والتفاعل عند تطبيق هذه النماذج. وسيفهم الموظفون خلال هذه العملية كيفية بناء النماذج وسبل إدارة البيانات وسبب اقتراح الآلات لتوصيات بعينها.

تقنيات الذكاء الاصطناعي

المرحلة الثالثة

المدرب

في استقصاء أُجري مؤخراً بإشراف شركة “بي دبليو سي” (PwC)، أعرب حوالي 60% من المشاركين عن رغبتهم في الحصول على آراء تقييمية عن أدائهم في العمل بصورة يومية أو أسبوعية، وليس من الصعب معرفة السبب، فكما أكد بيتر دراكر في مقاله الشهير “إدارة الذات” (Managing Oneself) بمجلة “هارفارد بزنس ريفيو” عام 2005: “عادةً ما يجهل المرء ما يجيده، وعندما يظن أنه على علم بما يجيده، فغالباً ما يجانبه الصواب”.

تجدر الإشارة هنا إلى أن الذكاء الاصطناعي ليس “على صواب” دائماً بكل تأكيد، لذا لابد من استخدامه بطريقة تشبه الحوار، وبذلك يزداد نفعه مع الحفاظ على استقلالية العنصر البشري الذي يتولى صناعة القرار.

المشكلة أن التحليل الدقيق للقرارات والإجراءات الرئيسية هو الطريقة الوحيدة لاكتشاف نقاط القوة والفرص المتاحة للتحسين، وهو ما يستلزم توثيق النتائج المتوقعة، ثم مقارنة هذه التوقعات بما حدث بالفعل بعدها بتسعة أشهر إلى سنة، وبالتالي فإن الآراء التقييمية التي يحصل عليها الموظفون عادة ما تصدر من رؤسائهم في سلم التدرج الوظيفي خلال مراجعتهم لأداء مرؤوسيهم، وليس وفقاً للوقت أو الصيغة التي يختارها متلقي التقييم، وهذا شيء يدعو للأسف لأنه: “كلما زاد شعور المرء أن استقلاليته مصانة وأنه يسيطر على مجرى المحادثة، أي قادر على اختيار توقيت حصوله على الآراء التقييمية، مثلاً، فإنه يتفاعل مع الأمر بصورة أفضل” حسب ما توصلت إليه تيسا ويست من جامعة نيويورك في دراسة أُجريت مؤخراً في مجال علم الأعصاب.

ويستطيع الذكاء الاصطناعي حل هذه المشكلة، إذ يمكن تسخير الإمكانات السالف ذكرها لإعداد الآراء التقييمية وعرضها على الموظفين بكل سهولة، ما يتيح لهم الاطلاع على أدائهم وتأمل المتغيرات والأخطاء، وربما يساعدهم حصولهم على ملخص شهري يحوي تحليلاً للبيانات المستمدة من سلوكياتهم السابقة على فهم ممارساتهم وأنماط اتخاذهم للقرارات بصورة أفضل. تتبع بعض الشركات هذا النهج، لاسيما الشركات العاملة في القطاع المالي، حيث يحصل مدراء المحافظ الاستثمارية في شركة “ماربل بار أسيت مانجمنت” على آراء تقييمية من نظام تحليلات البيانات الذي يسجل قرارات الاستثمار على المستوى الفردي.

قد تكشف البيانات عن تحيزات مثيرة للاهتمام ومتنوعة بين مدراء المحافظ الاستثمارية، فقد يبدو البعض أكثر كرهاً للخسارة من الآخرين، ما يدفعهم إلى الاحتفاظ باستثمارات ضعيفة الأداء لفترة أطول مما ينبغي، بينما يتصف آخرون بالثقة المفرطة في النفس حتى إنهم قد يقدمون على شراء حصة أكبر من اللازم في استثمار معين. يحدد التحليل هذه السلوكيات ويقدم آراءً تقييمية مخصصة تسلط الضوء على التغييرات السلوكية بمرور الوقت، تماماً مثلما يفعل المدربون، مع تقديمه لاقتراحات حول كيفية تحسين القرارات، ولكن الأمر متروك لمدراء المحافظ الاستثمارية لتحديد كيفية تضمين تلك الآراء التقييمية، وتؤمن قيادة شركة “ماربل بار أسيت مانجمنت” أن “تعزيز التداول” أصبح عاملاً أساسياً يساعد على تطوير أداء مدراء المحافظ الاستثمارية ويجعل المؤسسة أكثر جاذبية.

الأهم من ذلك أن تعلم الآلة “روبوت التدريب” يستفيد من القرارات التي يتخذها الموظف البشري المختص مثلما يتعلم الموجه المتمرس من رؤى طلابه الذين يتولى توجيههم، ويستطيع العنصر البشري في ضوء هذه العلاقة إبداء اختلافه مع “روبوت التدريب”، وهو ما يتيح الفرصة لتوليد بيانات جديدة من شأنها تغيير النموذج الضمني للذكاء الاصطناعي، فإذا قرر مدير محفظة استثمارية، على سبيل المثال، عدم تداول سهم مميز بسبب أحداث وقعت مؤخراً في الشركة، فبإمكانه تقديم شرح للنظام، ومن خلال الآراء التقييمية، يواصل النظام تسجيل البيانات التي يمكن تحليلها لتقديم رؤى ثاقبة.

وإذا استطاع الموظفون التفاعل مع الآراء المتبادلة مع الذكاء الاصطناعي والتحكم فيها، ازدادت احتمالية نظرهم إليه باعتباره قناة آمنة للحصول على الآراء التقييمية التي تهدف إلى تقديم يد العون بدلاً من تقييم الأداء، واختيار الواجهة البينية المناسبة يفيد في تحقيق هذه الغاية. ومن هذا المنطلق تحرص شركة “ماربل بار أسيت مانجمنت”، على سبيل المثال، على اختيار أدوات مخصصة لتعزيز التداول، كالمرئيات مثلاً، بحيث تعكس تفضيلات مدراء المحافظ الاستثمارية.

ويجب إشراك الموظفين في تصميم النظام قياساً على ما جرى تطبيقه في المرحلة الثانية، فعندما يتولى الذكاء الاصطناعي دور المدرب، ستزداد مخاوف الموظفين خشية سحب البساط من تحت أقدامهم ومن السهل أن يبدو الذكاء الاصطناعي كمنافس أو شريك، ومَن منا يحب أن يشعر أنه أقل ذكاءً من آلة صمّاء؟ ولكن ربما كانت المخاوف بشأن الاستقلالية والخصوصية أعنف من غيرها، كما أن العمل مع مدرب يتطلب توافر الصدق، وقد يتردد المرء في التحدث بصراحة مع مدرب قد يُطلِع مسؤولي الموارد البشرية على بيانات غير سارة.

من المؤكد أن تطبيق الذكاء الاصطناعي بالطرق الموضحة في المراحل الثلاث الأولى له بعض الجوانب السلبية، صحيح أن التقنيات الجديدة ستوفر وظائف أكثر من تلك التي تدمرها على المدى الطويل، ولكن قد يتسبب الأمر في الوقت نفسه في زعزعة أسواق العمل على نحو مؤلم، هذا بالإضافة إلى ما ذكره “مات بين” في مقاله “تعلم العمل مع الأجهزة الذكية” (Learning to Work with Intelligent Machines) (هارفارد بزنس ريفيو، سبتمبر/أيلول – أكتوبر/تشرين الأول 2019)، إذ قال: “قد تتسبب الشركات التي تستخدم تقنيات الذكاء الاصطناعي في تقليل الفرص المتاحة أمام الموظفين لاكتساب خبرة عملية والتعلم من التوجيه”.

ومن ثم فهناك بعض المخاطر، ليس فقط لفقدان وظائف في بداية التعيين (نظراً لإمكانية حلول المساعدين الرقميين محل العنصر البشري بفاعلية) ولكن أيضاً لتهديده بشل قدرة صنّاع القرار على التفكير بأنفسهم مستقبلاً، إلا أن هذا ليس أمراً حتمياً، فكما يشير “مات بين”: يمكن للشركات استخدام ذكائها الاصطناعي لتوفير فرص مختلفة وأفضل لموظفيها لاكتساب الخبرة مع تحسين النظام بجعله أكثر شفافية ومنح الموظفين المزيد من التحكم، ونظراً لأن المنتسبين الجدد للقوى العاملة في المستقبل سيجدون أنفسهم يكبرون داخل مكان يجمع بين الآلات والعنصر البشري، فمن المؤكد أنهم سيكونون أسرع من زملائهم الذين لم يعاصروا تطبيق الذكاء الاصطناعي في اكتشاف فرص الابتكار واستحداث الأنشطة التي تضيف قيمة وتخلق فرص العمل، وهو ما يقودنا إلى المرحلة الأخيرة.

المرحلة الرابعة

زملاء فريق العمل

طور إدوين هاتشينز عالم الأنثروبولوجيا المعرفية ما يُعرف بنظرية الإدراك المُوَزّع، وتستند نظريته إلى دراسته لملاحة السفن والتي أوضح أنها تضمنت مجموعة من البحارة والخرائط والمساطر والبوصلات وأدوات الرسم. ترتبط النظرية بصفة عامة بمفهوم العقل الممتد الذي يفترض أن المعالجة المعرفية والأفعال العقلية المرتبطة بها، مثل المعتقد والنية، لا تقتصر بالضرورة على الدماغ أو حتى الجسم، وأن الأدوات والمعدات الخارجية يمكنها المشاركة في المعالجة المعرفية، في ظل الظروف المناسبة، وإنشاء ما يُعرف بالنظام المقترن.

وتماشياً مع هذا الفكر، في المرحلة الأخيرة من رحلة تطبيق الذكاء الاصطناعي (التي لم تعتمدها أي منظمة بعد على حد علمنا)، ستبدأ الشركات بتطوير شبكة مقترنة تضم الإنسان والآلة يسهم فيها كل منهما بخبراته، ونؤمن في هذا السياق أن أداء الذكاء الاصطناعي يتحسن من خلال تفاعله مع المستخدمين العاديين وتحليل مدخلات المستخدمين المتمرسين، بل ونمذجتهم من خلال الاعتماد على البيانات المتعلقة بقراراتهم وسلوكياتهم السابقة، وهكذا سينشأ تلقائياً مجتمع من الخبراء (يضم العناصر البشرية والآلات) في المؤسسات التي عملت على إدماج روبوتات التدريب الذكية دمجاً كاملاً، فيمكن لمدير المشتريات، على سبيل المثال، معرفة السعر الذي يقدمه شخص آخر بنقرة واحدة في لحظة صناعة القرار، وبهذا يمكنه الاستفادة من المعرفة الجمعية المخصصة للخبراء.

فعندما يتولى الذكاء الاصطناعي دور المدرب، ستزداد مخاوف الموظفين خشية سحب البساط من تحت أقدامهم ومن السهل أن يبدو الذكاء الاصطناعي كمنافس أو شريك.

ورغم أن التكنولوجيا اللازمة لإنتاج هذا النوع من الذكاء الجمعي غدت متاحة الآن، تظل هذه المرحلة محفوفة بالتحديات، وعند دمج الذكاء الاصطناعي بأي من هذه الأشكال لابد من تجنب طرحه في سياق التحيزات القديمة أو الجديدة، كما يجب احترام مخاوف الأفراد المتعلقة بالخصوصية حتى يتمكن الجميع من الوثوق بالذكاء الاصطناعي بقدر ثقتهم بالشريك البشري، وهو ما يمثل في حد ذاته تحدياً هائلاً نظراً لحجم الأبحاث التي توضح مدى صعوبة بناء الثقة بين البشر.

وتعتمد أفضل أساليب بناء الثقة في مكان العمل على العلاقة بين الثقة والتفاهم، وكان ذلك موضوع دراسة أُجريت بمعرفة ديفيد دانكس وعدد من زملائه في “جامعة كارنيغي ميلون” (Carnegie Mellon)، ووفقاً لهذا النموذج، فإن الدافع وراء ثقة المرء بأحد الأشخاص يتولد من فهمه لقيم هذا الشخص ورغباته ونواياه، وإظهار اهتمامه بمصلحته. ورغم أن الفهم يمثل حجر الأساس لبناء الثقة في العلاقات البشرية على مر العصور، فقد يكون مناسباً أيضاً لترسيخ الشراكة بين الإنسان والذكاء الاصطناعي، ذلك لأن المصدر الأساسي لخوف الموظفين من الذكاء الاصطناعي هو جهلهم بكيفية عمل الذكاء الاصطناعي. (انظر العمود الجانبي: “عندما تضل خطى تقنيات الذكاء الاصطناعي”).

ولبناء هذا الفهم، فإننا أمام تحدٍ خاص لتحديد معنى “التفسير”، ناهيك عن “التفسير الوجيه”، ويُعد هذا التحدي محوراً للكثير من الأبحاث، حيث يعمل أحدنا (إيفينيو) على فتح “الصناديق السوداء” لتعلم الآلة من خلال دراسة ما يسمى بالتفسيرات العكسية، ويسلط التفسير العكسي الضوء على قرار معين اتخذه نظام الذكاء الاصطناعي (مثل الموافقة على اعتماد معاملة ائتمانية معينة) من خلال تحديد قائمة قصيرة بخصائص المعاملة التي قادت لاتخاذ القرار بطريقة أو بأخرى. فلو اختلفت أيُّ من الخصائص (أو كانت عكس الحقيقة)، لاتخذ النظام قراراً مغايراً (ولكان الرفض مصير المعاملة الائتمانية).

يعكف إيفينيو أيضاً على بحث ما يمكن اعتباره تفسيرات وجيهة لقرارات الذكاء الاصطناعي من وجهة نظر البشر، فعلى سبيل المثال: هل سيعتبرون التفسير أفضل إذا عُرِض كمزيج منطقي من الميزات (كأن يقال مثلاً: “اعتُمدت المعاملة لأنها تتميز بالخصائص س، ص، ع”) أم إذا عُرِض في إطار المقارنة مع قرارات أخرى (كأن يقال مثلاً: “اعتُمدت المعاملة لأنها تبدو مماثلة لمعاملات أخرى معتمدة، وها هي معروضة أمامك لمقارنتها”)؟ ومع استمرار البحث عما يجعل الذكاء الاصطناعي قابلاً للتفسير، يجب أن تصبح أنظمة الذكاء الاصطناعي أكثر شفافية، ما يسهل بدوره ترسيخ أواصر الثقة.

اقرأ أيضاً: البيانات الصغيرة يمكن أن تلعب دوراً كبيراً في الذكاء الاصطناعي

لطالما مثَّل تبني التقنيات الجديدة تحدياً كبيراً، وكلما زاد أثر هذه التقنيات، زاد حجم التحدي الذي نواجهه. ونظراً للأثر الكبير الذي يُتوقع أن يتركه الذكاء الاصطناعي على حياتنا، فربما يُنظر إليه باعتباره أمراً صعب التطبيق، ولكن إذا نجحنا في تطبيقه بصورة واعية، كان تبنيه سلساً إلى حد ما، ولهذا السبب تحديداً يجب على الشركات التأكد من تحمل مسؤولي تصميم الذكاء الاصطناعي وتطويره للمسؤولية، خاصة فيما يتعلق بالشفافية واستقلالية القرار والخصوصية، والحرص على إشراك الأشخاص الذين سيعملون مع هذه التقنيات، وإلا شعروا بخوف هائل من تقييد حركتهم، أو حتى استبدالهم بالآلات التي تتخذ مختلف أنواع القرارات بطرق لا يفهمونها.

[su_expand more_text=”المزيد” less_text=”الأقل” height=”50″ link_color=”#66abe8″ link_style=”button” link_align=”right”]

عندما تضل خطى تقنيات الذكاء الاصطناعي

نشرت منصة الأخبار الاستقصائية “برو بابليكا” (ProPublica) عام 2016 عرضاً لبرنامج الذكاء الاصطناعي للتنبؤ بالمخاطر المعروف باسم “كومباس” (COMPAS)، والذي يستخدمه القضاة في جنوب فلوريدا لتحديد احتمالية عودة المتهمين لممارسة الإجرام خلال فترة زمنية محددة.

وتحتفظ شركة “نورثبوينت” (Northpointe) -التي تحمل الآن اسم “إكويفانت” (Equivant)- المصنعة لبرنامج “كومباس” بالخوارزمية الأساسية للبرنامج كأحد الأسرار التجارية، ما يعني أننا لا نعرف الطريقة التي يتبعها البرنامج في بناء توقعاته، ولا يمكننا الوصول إلى البيانات التي جرى تدريب الخوارزمية عليها، لذلك لا يمكننا سبر التفسير المنطقي لها. وعندما أفادت التقارير أن خوارزمية “كومباس” تعطي نتائج متباينة استناداً إلى الفروق العرقية، سرعان ما أصبح البرنامج سبباً أساسياً لفقدان الأفراد لثقتهم بالذكاء الاصطناعي.

إذا أرادت الشركات تشجيع الموظفين على اعتماد أنظمة الذكاء الاصطناعي واستخدامها والثقة بها في نهاية المطاف، فسيكون عليها فتح الصندوق الأسود إلى أقصى حد يتيحه القانون لأولئك الذين يُتوقع منهم المشاركة في هذه التقنية. وكما أشار ريتشارد سوتشر، كبير العلماء في شركة “سيلز فورس” (Salesforce)، بقوله: “إذا استخدمت الشركات الذكاء الاصطناعي لإجراء تنبؤات، فعليها الاعتماد على العنصر البشري لتفسير كيفية صناعة القرارات”.

[/su_expand]

ويكمن الحل لطريقة اعتماد تقنيات الذكاء الاصطناعي في تجاوز هذه المخاوف وإنشاء علاقة قوامها الثقة المتبادلة مع الذكاء الاصطناعي، ولعلنا لاحظنا أن العنصر البشري هو الذي يتولى تحديد القواعد الأساسية عبر جميع المراحل الأربع الموضحة في سطور هذا المقال الذي تحدث عن طريقة اعتماد تقنيات الذكاء الاصطناعي، وفي ظل توافر تصميم مسؤول يمكن تسخير تقنيات الذكاء الاصطناعي وتحويلها إلى شريك حقيقي داخل مكان العمل يستطيع معالجة كميات كبيرة من البيانات المتنوعة بسرعة وبصورة متسقة من أجل تعزيز الحدس والإبداع لدى العنصر البشري الذي يتولى بدوره تعليم الآلة.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .