وفقاً لتوقعات شركة برايس ووتر هاوس كوبرز (PwC) حول الذكاء الاصطناعي لعام 2025، فإن الذكاء الاصطناعي هو العامل الرئيسي الذي يُحدث تغييرات جذرية في كيفية ممارسة الأعمال التجارية وإنشاء القيمة خلال هذا العام. باتت المؤسسات عبر القطاعات المختلفة تعتمد الذكاء الاصطناعي بسرعة في طريقة أداء الموظفين للمهام الرئيسية، مثل تسهيل خدمة العملاء ودعم صناعة القرارات وتحسين الكفاءة. ومن المتوقع أن تسهم هذه التكنولوجيا أيضاً في تغيير أساليب إدارة الموظفين؛ إذ أصبح كل من وكلاء الذكاء الاصطناعي وأنظمته أكثر قدرة على الإشراف على سير العمل وطريقة تعاون الموظفين مع الذكاء الاصطناعي في تنفيذ تلك المهام.
وفقاً لتقرير أجرته شركة ماكنزي (McKinsey)، فقد ارتفعت نسبة المؤسسات التي تبنّت الذكاء الاصطناعي من 55% في عام 2023 إلى 78% في عام 2024، لكن حماس الموظفين لا يزال منخفضاً تجاه استخدام الذكاء الاصطناعي في أنشطتهم اليومية. وهذا يثير سؤالاً مهماً: هل يثق الموظفون بهذه التكنولوجيات؟ تحدد الثقة نجاح تبني الذكاء الاصطناعي بدرجة كبيرة ومباشرة، ويؤثر ذلك بدوره في إنتاجية الموظفين ومشاركتهم واستعدادهم لتبني التغييرات وعمليات الإشراف التي تعتمد على الذكاء الاصطناعي.
تشير الدلائل إلى أن الثقة في الذكاء الاصطناعي ضعيفة، ففي استطلاع حديث أجراه مركز بيو للأبحاث (Pew Research)، قال المشاركون إنهم يشعرون بالتحفظ تجاه الذكاء الاصطناعي، إذ أعرب 52% منهم عن قلقهم حيال أثر الذكاء الاصطناعي في مكان العمل، وقال 33% منهم أنهم يشعرون بالتخبط والإرهاق جرّاء استخدامه، في حين أبدى 36% منهم التفاؤل في هذا الصدد. وعلى الصعيد العالمي، توصلت شركة إيدلمان (Edelman) إلى أن 35% من المشاركين في الاستطلاع أشاروا إلى رفضهم استخدام الذكاء الاصطناعي، في حين أيّد 30% منهم ذلك. ووفقاً لاستطلاع آخر أجراه مركز بيو للأبحاث، عارض 71% من الأميركيين استخدام الشركات للذكاء الاصطناعي في اتخاذ قرارات التوظيف النهائية، في حين اعترض 61% منهم على استخدامه لتتبع تحركات الموظفين.
وقد كشف استطلاع حديث أجرته مجموعة بوسطن الاستشارية (BCG) أن نحو نصف المشاركين الذين استخدموا الذكاء الاصطناعي التوليدي بانتظام يتوقعون اختفاء وظائفهم خلال العقد المقبل. يرجع جزء من هذا التوجس إلى أسباب منطقية، فقد كشف أحدث استطلاع أجرته شركة برايس ووتر هاوس كوبرز حول الذكاء الاصطناعي المسؤول (Responsible AI)، أن 58% فقط من الشركات أنجزت تقييماً أولياً للمخاطر المرتبطة باستخدام الذكاء الاصطناعي. كما يشير بحث إداري حديث إلى أن أحد الأسباب الرئيسية لعدم ثقة الموظفين في الذكاء الاصطناعي هو اعتقادهم أن هذه الأدوات تفتقر إلى النوايا الحسنة والتعاطف عند تقديم التوصيات أو اتخاذ القرارات، ما يثير قلقهم حول مدى اهتمام الذكاء الاصطناعي بمصالحهم ومراعاتها. النية الحسنة؛ أي الاستعداد لتبني موقف إيجابي لخدمة مصالح الآخرين، هي مفهوم مهم لأنها تعكس مدى التزام الجهة الموثوق بها (في هذه الحالة، الذكاء الاصطناعي) بخدمة مصلحة الطرف المانح للثقة (في هذه الحالة، الموظفون)، ما يُسهم في بناء الثقة. ترسل هذه المخاوف التي يشعر بها الموظفون رسالة إلى قادة المؤسسات مفادها أن مستوى الثقة بهم قد يكون متدنياً أيضاً. ففي نهاية المطاف، تعكس مواقف الموظفين تجاه الذكاء الاصطناعي أيضاً تصوراتهم عن القيادة، وذلك من حيث كيفية استخدام القادة لهذه الأدوات ومدى ثقتهم في دوافع القيادة عند اعتماد الذكاء الاصطناعي. يرغب الموظفون في معرفة إذا كان اعتماد الذكاء الاصطناعي سيخدم مصالحهم أم سيؤدي إلى فقدان وظائفهم؛ وإذا كان سيعزز أدوارهم ومساهماتهم أم سيحل محلها. عندما تفكر المؤسسات في دمج أنظمة الذكاء الاصطناعي في عمليات الإدارة وصناعة القرار، يجب عليها أن تسأل عن كيفية تأثير الذكاء الاصطناعي في ثقة الموظفين وتصوراتهم للنية الحسنة والرغبة في خدمة مصالحهم. وعند التفكير في هذا الأمر، يجب على المؤسسات أن تأخذ بالاعتبار كيفية تأثير هذه الأنظمة في تجارب الموظفين ونظرتهم إلى وظائفهم، بالإضافة إلى الدور الذي يجب أن تؤديه الإدارة في التعامل مع توصيات الذكاء الاصطناعي ومراجعتها لتقليل مخاوف الموظفين.
الذكاء الاصطناعي وقدرته على إبداء النوايا الحسنة وتقديم المساعدة
أصبحت أنظمة الذكاء الاصطناعي أكثر قدرة على التعرف إلى أنماط التفاعلات البشرية وتحليلها؛ إذ تمنحها هذه القدرة فعالية كبيرة في العمل بطريقة شبه مستقلة في مجالات مثل خدمة العملاء، وتقديم التوصيات الشخصية، وإدارة سير العمل. من خلال تحليل مجموعة بيانات ضخمة عن السلوك البشري، التي تشمل بيانات النصوص والصوت وحتى الإيماءات أو الإشارات الجسدية، تستطيع أنظمة الذكاء الاصطناعي استنتاج تفضيلات البشر وأساليب تواصلهم وردود فعلهم بدقة، بالإضافة إلى اتخاذ القرارات بناءً على هذه التحليلات. لهذا السبب، تستطيع هذه الأنظمة التواصل بأسلوب يُشبه التواصل البشري، إذ يمكنها التفاعل مع الإشارات العاطفية خلال المحادثات والتصرف بطريقة متعاطفة أو حازمة أو مشجعة، وذلك بناءً على التوجيهات التي تتلقاها. نظراً لأن الذكاء الاصطناعي يعكس البيانات التي يتلقاها ويستمد توجيهاته من الجهة التي تزوده بالتعليمات، فيمكنه تجسيد القيم المعلنة والفعلية للشركة.
تستطيع المؤسسات تدريب الذكاء الاصطناعي لتقديم توصيات تبدو حسنة النية أو العكس، وذلك من خلال استخدام أوامر وتوجيهات محددة. على سبيل المثال، يمكن توجيه الذكاء الاصطناعي لتحديد مصالح أصحاب المصلحة المشاركين في قرار تجاري ما ووضعها في سلم الأولويات. بدأت الشركات بتطبيق ذلك بالفعل، فعلى سبيل المثال، استخدمت شركة سيلز فورس (Salesforce) في عام 2017 نظام الذكاء الاصطناعي الداخلي لديها لتقديم المشورة للقيادة في عمليات صناعة القرارات. في هذه الحالات، كان الذكاء الاصطناعي أداة لتقليل التحيز في الاجتماعات والحد من تأثير السياسات الداخلية أو الأجندات الشخصية. وقد أسهم ذلك في الدفاع عن مصالح أصحاب المصلحة، ومساعدة القادة على اتخاذ قرارات بنّاءة وحسنة النية وإثبات أن الذكاء الاصطناعي يمكن أن يكون أداة تساعد على تعزيز النوايا الحسنة في عملية صناعة القرار. هل يمكن أن تؤدي هذه التطبيقات إلى تعزيز ثقة الموظفين في نوايا الذكاء الاصطناعي الإيجابية؟ في نهاية المطاف، قد تساعد هذه التطبيقات على تبني أساليب أكثر حكمة في الإدارة وصناعة القرارات.
وعلى الرغم من ذلك، فمن غير المرجح أن يرى الموظفون أن هذه التدخلات والممارسات تُمثل دليلاً على نوايا الذكاء الاصطناعي الحسنة، ولا يفترض بهم ذلك، لأنهم يرون أن النوايا الحسنة هي سمة إنسانية لا تمتلكها هذه الأدوات، والسبب هو أن أنظمة الذكاء الاصطناعي ليست قادرة على التصرف بنوايا حسنة، ولا يمكن أن تكون كذلك؛ إذ لا تتمتع أنظمة الذكاء الاصطناعي بالقدرة على إظهار استعداد حقيقي لتبني موقف إيجابي يخدم مصالح الأطراف الأخرى التي تستخدمها. في الواقع، تعمل هذه الأنظمة من خلال خوارزميات تتبع الأنماط الإحصائية والأهداف المحددة مسبقاً دون أي غاية ذاتية؛ وبالتالي، لا يمكن أن تحتوي البنية الداخلية لأنظمة الذكاء الاصطناعي وآلية عملها على أي نوايا حقيقية.
نظراً لعدم قدرة أنظمة الذكاء الاصطناعي على إبداء الآراء وإصدار الأحكام والتقديرات الشخصية، فإن قدرتها على فهم العالم ودوافع البشر تظل محدودة، ولهذا السبب، لا تمتلك هذه الأنظمة استعداداً حقيقياً للاهتمام بمصالح الناس. وهذا أمر مهم لسببين:
1) يستطيع البشر تمييز الإشارات العاطفية الحقيقية بدرجة تفوق الصدفة أو التخمين، 2) تكشف الأبحاث أنه من الصعب بناء الثقة القائمة على حسن النية إذا كانت نوايا الطرف الآخر موضع شك. عندما يكتشف الناس أن أنظمة الذكاء الاصطناعي لا تهتم بهم حقاً وتتظاهر فقط بالنية الحسنة، فإن ذلك سيؤدي إلى عرقلة عملية بناء الثقة للأسف.
التوصيات
لتعزيز الثقة بالذكاء الاصطناعي، من المهم أن تدرك المؤسسات أن المسألة ليست مجرد عملية هندسية تقتصر على التدخلات والتحسينات التكنولوجية، مثل استخدام الرموز البرمجية المفتوحة المصدر وتعزيز الشفافية في تفسير قرارات الذكاء الاصطناعي وخوارزمياته. يتطلب ضمان قبول الموظفين للذكاء الاصطناعي أن تكون لديهم القدرة على فهمه ومعرفة آلية عمله. ويحتاج تحقيق هذا النوع من الثقة إلى اتخاذ تدابير على مستوى الذكاء الاصطناعي والقيادة معاً. وإليك كيفية تحقيق ذلك:
أولاً، لإنشاء بيئة عمل تشجّع الموظفين على تبنّي الذكاء الاصطناعي بثقة، يجب على المؤسسات تعزيز عوامل الثقة المعرفية في الذكاء الاصطناعي، مثل الدقة والشفافية والموثوقية.
تُظهر الأبحاث أن الأنظمة الموثوقة والمفهومة تحظى بقبول أكبر من المستخدمين. ويمكن تحقيق هذا النوع من الثقة من خلال إجراء تحسينات على التكنولوجيا نفسها. على سبيل المثال، يمكن أن يؤدي إجراء عمليات تدقيق منتظمة لدقة الذكاء الاصطناعي، بالإضافة إلى جهود تخفيف التحيز وتتبع الأداء إلى طمأنة الموظفين بشأن موثوقية الذكاء الاصطناعي، ما يشجعهم على التعامل مع هذه التكنولوجيا واستخدامها بطريقة فعالة.
ثانياً، يجب على القادة إظهار اهتمام حقيقي برفاهة الموظفين وإنصافهم، لأن الذكاء الاصطناعي يعجز عن أداء هذا الدور. في نهاية المطاف، ستتولى القيادة مسؤولية تحديد كيفية استخدام الذكاء الاصطناعي وتعزيز قدراته، بالإضافة إلى تحديد المجالات التي يجب عدم استخدامه فيها. من خلال إشراك الموظفين في النقاشات حول دور الذكاء الاصطناعي في عملهم ومعالجة مخاوفهم بشفافية، يمكن أن يسهم القادة في إنشاء ثقافة عمل يشعر فيها الموظفون بالتقدير، وينظرون إلى الذكاء الاصطناعي بوصفه وسيلة تهدف إلى تعزيز قدراتهم وتنميتهم، وليس إلى استبدالهم.
ثالثاً، يتطلب الحل الأمثل لمشكلة انعدام الثقة في الذكاء الاصطناعي الجمع بين الذكاء الاصطناعي والقيادة، ما يضمن شعور الموظفين بالثقة في كفاءة الذكاء الاصطناعي من الناحية التكنولوجية، إلى جانب الاطمئنان إلى أنه سيخدم مصلحتهم بطريقة عادلة ومحترمة. يجب على المؤسسات تصميم البرامج التدريبية وتنفيذها لتسهيل قبول الموظفين للجمع بين الذكاء الاصطناعي والقيادة بما يضمن تعزيز الثقة في الذكاء الاصطناعي على نطاق واسع، سواء على المستوى المعرفي أو العاطفي. تهدف هذه البرامج إلى تقليل مخاوف الموظفين من تبني الذكاء الاصطناعي، مع تعزيز ثقتهم بدعم المشرفين لهم في الوقت نفسه. ويمكن تحقيق ذلك من خلال تعزيز المعرفة الرقمية وفهم طريقة عمل الذكاء الاصطناعي.
يسهم تعزيز فهم الذكاء الاصطناعي، إلى جانب المناقشات التي تقودها القيادة والتي تُبرز الذكاء الاصطناعي بوصفه أداة داعمة تسهم في تحقيق غاية الشركة ومصالح المعنيين جميعهم، إلى تعزيز قدرة الموظفين على رؤية مساهماته في تطوير أدوارهم ونموهم المهني.
يتطلب إنشاء سياق عمل يكون فيه الذكاء الاصطناعي موثوقاً من الناحيتين التكنولوجية والعاطفية تنسيقاً دقيقاً ومدروساً بين التدخلات والتحسينات التكنولوجية لتعزيز الثقة المعرفية والقيادة التي تتميز بالشفافية والنوايا الحسنة. من خلال الجمع بين القيادة التي تتسم بالنوايا الحسنة وممارسات الذكاء الاصطناعي الشفافة والتشاركية، يمكن للمؤسسات مساعدة الموظفين على فهم دور الذكاء الاصطناعي بوضوح، بحيث يكونون أكثر استعداداً لتبنّيه بوصفه شريكاً في مسيرتهم المهنية.