كيف تبني فريقاً آمناً نفسياً في عصر الذكاء الاصطناعي؟

9 دقيقة
فرق العمل

مع هرولة المؤسسات نحو دمج الذكاء الاصطناعي داخل سير عملها، بدأ القادة يكتشفون أثر هذه الخطوة في ديناميات الفرق. فالأدوات نفسها التي تعد برفع الإنتاجية قد تنتج أنماطاً متوقعة من اختلال عمل الفرق، تشبه إلى حد بعيد مشكلات كلاسيكية معروفة في السلوك التنظيمي. ومع ذلك، يتعامل…

قد يكون ثمة أمر مقلق يحدث داخل فريقك. فعلى الرغم من المكاسب المتوقعة في الإنتاجية نتيجة دمج أدوات الذكاء الاصطناعي، يبدو أن الأداء العام للفريق آخذ في التراجع. بدأ الأفراد يشككون في تقديراتهم، وراحت الثقة تتآكل بطرق يصعب تحديدها.

تخيل هذا السيناريو الافتراضي: يستخدم فريق التسويق لديك إحدى أدوات الذكاء الاصطناعي التوليدي لتحليل أداء الحملات التسويقية، فتوصي الأداة بثقة عالية بإعادة توزيع الميزانية استناداً إلى ما يبدو تحليلاً رصيناً للبيانات. غير أن هذه التوصية تقوم في الواقع على سوء فهم جوهري لتقسيمات العملاء، فتفشل الحملة وتضيع الميزانيات، وفجأة يبدأ أعضاء الفريق جميعهم بالتشكيك، لا في توصيات الذكاء الاصطناعي المستقبلية فحسب، بل في قدرتهم هم أنفسهم على تقييم هذه التوصيات.

ومع هرولة المؤسسات نحو دمج الذكاء الاصطناعي داخل سير عملها، يكتشف القادة أن التحديات التي تصاحب هذه الخطوة ليست تقنية فحسب، بل تتعلق في جوهرها بديناميات الفرق أيضاً. فالأدوات نفسها التي تعد برفع الإنتاجية قد تنتج أنماطاً متوقعة من اختلال عمل الفرق، تعكس مشكلات كلاسيكية معروفة في السلوك التنظيمي. ويتجلى ذلك، على سبيل المثال، في تصاعد ما يعرف بالنتائج الرديئة "ووركسلوب"؛ أي المخرجات التي يولدها الذكاء الاصطناعي من دون أن تؤدي إلى تقدم حقيقي في المشروع، وتلقي بعبء إضافي من الجهد الذهني والانفعالي على الزملاء الذين يضطرون إلى تصحيحها أو إعادة إنجازها. ولا تقتصر النتيجة على الإضرار بالإنتاجية، بل تمتد إلى تقويض الثقة بين الزملاء.

لكن ما يميز هذه الحالة هو أن معظم القادة لا يتعاملون معها بوصفها تحديات تتعلق بدمج الذكاء الاصطناعي داخل الفرق؛ وإنما يعتبرونها مشكلات تكنولوجية يمكن حلها باستخدام أدوات أفضل أو عبر تقديم تدريبات إضافية، لا قضايا تمس فعالية الفرق وتتطلب تطبيق كثير من المبادئ التي نعرف يقيناً أنها تدعم التعاون البشري.

ومن خلال عملنا، حيث تعمل جايشري على تطوير حالات استخدام الذكاء الاصطناعي التوليدي في البحث والتطوير بشركة ثري إم، بينما تراجع إيمي آثار الذكاء الاصطناعي في القوى العاملة والمجتمع، وجدنا أن فهم ديناميات العمل داخل الفرق التي تجمع بين البشر والذكاء الاصطناعي أمر بالغ الأهمية، ليس فقط من زاوية النظرية والممارسة التنظيمية، بل أيضاً للحيلولة دون وقوع أخطاء مكلفة ومنع تآكل الثقة داخل الفريق.

أين تتصدع الثقة؟

من المعروف أن الثقة عنصر حاسم في أداء الفرق، غير أن الذكاء الاصطناعي قادر على تغيير هذه المعادلة. فعندما يقدم الذكاء الاصطناعي معلومات غير صحيحة، ولكن بثقة، ينشأ ما يمكن تسميته بـ "غموض الثقة". ويظهر هذا الغموض عندما يتعامل المرء مع الثقة بوصفها أمراً مفترضاً، في حين أنها غير موجودة في الواقع؛ فضلاً عن أن غياب الثقة غالباً ما يكون من الصعب طرحه أو مناقشته صراحة. وفي حالة غموض الثقة، لا يفقد أعضاء الفريق ثقتهم في مخرجات الذكاء الاصطناعي فحسب، بل تتزعزع ثقتهم في تقديراتهم هم أنفسهم. وتشير الأبحاث إلى أن الاستخدام المستمر للذكاء الاصطناعي يقوض ثقة المهنيين في قدرتهم على نقد توصياته، حتى عندما يمتلكون الخبرة اللازمة لفعل ذلك، ما يؤدي بدوره إلى تهديد الأمان النفسي الذي يشكل أساس التعلم الجماعي وأداء الفرق، إذ يحد الغموض من الاستعداد للتعبير عن الرأي أو إبداء التحفظات.

تخيل هذا السيناريو الافتراضي الآخر؛ حيث يوصي الذكاء الاصطناعي بثقة بتبني مسار تطوير تكنولوجيا "ابتكارية" مستدامة، استناداً إلى تحليل لبراءات الاختراع، لكنه يسيء تفسير براءات منتهية الصلاحية على أنها ابتكارات لا تزال فعالة، ما يقود إلى نقاشات استثمارية حول تكنولوجيا عفا عليها الزمن.

لا يقتصر الأمر هنا على دقة أجوبة الذكاء الاصطناعي فحسب، بل يتعلق بالطريقة التي تنتقل بها أخطاؤه عبر الفرق على نحو يختلف عن أخطاء البشر. فعندما يرتكب زميل بشري خطأ، غالباً ما تنخرط الفرق في عملية جماعية لفهم ما حدث، وتعيد النظر في نماذجها الذهنية وفهمها لخريطة توزيع المعرفة والخبرات داخل الفريق.

يستطيع البشر طرح أسئلة من قبيل: "ما هي البيانات التي اعتمدت عليها؟" "كيف توصلت إلى هذا القرار؟"، وفهم السياق كأن يقول أحدهم: "كنت تسرع لإنهاء العمل قبل الموعد النهائي"، والتعاون لمنع تكرار الخطأ بالقول: "لندرج خطوة مراجعة إضافية". تسهم هذه العملية، القائمة على التعلم المتبادل وتوضيح المسؤوليات، في تعزيز التعلم الجماعي وتوطيد روابط الفريق.

غير أن أخطاء الذكاء الاصطناعي التوليدي قد تعطل هذه العملية الأساسية للتعلم داخل الفرق. فعندما يقدم الذكاء الاصطناعي توصية ما بثقة عالية، تعجز الفرق عن الانخراط في عملية جماعية لفهم ما حدث، نظراً لطبيعته غير الشفافة التي تشبه "الصندوق الأسود". يؤدي الافتقار إلى الشفافية وصعوبة فهم كيفية وصوله إلى نتائجه إلى معاناة أعضاء الفريق في تحديد مستوى الثقة المناسب بالذكاء الاصطناعي، وفي الشعور بالاطمئنان إلى مخرجاته. وقد يمضي الفريق قدماً معتمداً على الذكاء الاصطناعي، متجاوزاً ضوابطه ونقاشاته الداخلية المعتادة، ما يفضي إلى تعثرات وأخطاء. فلا يستطيع الأفراد مساءلة الافتراضات التي ينطلق منها الذكاء الاصطناعي، ولا فحص منهجيته، ولا فهم سلسلة الاستدلال التي استخدمها. ويفضي ذلك إلى نشوء غموض الإسناد؛ إذ يدرك الفريق أن خللاً ما قد حدث نتيجة مخرجات الذكاء الاصطناعي، لكنه لا يمتلك مساراً واضحاً لتحديد سبب الخلل أو الحد من هذا الغموض أو منع تكراره.

ومع الوقت، قد يتفاقم هذا الغموض، ليقود مجدداً إلى غموض الثقة. فيبدأ الفريق بالتشكيك في مخرجات أخرى للذكاء الاصطناعي ("إذا كان مخطئاً هنا، فما الذي قد يكون مخطئاً فيه أيضاً؟")، ثم ينتقل التشكيك في نهاية المطاف إلى تقديراتهم هم أنفسهم ("هل نثق بالذكاء الاصطناعي أكثر مما ينبغي؟ أم نحن متحفظون أكثر من اللازم؟ كيف نضبط هذا التوازن؟"). وعلى خلاف أخطاء البشر، التي يناقشها الفريق ويفككها ويستوعبها عبر الحوار الداخلي عند ظهورها، قد تخلق أخطاء الذكاء الاصطناعي دوائر متسعة من الشك، من دون مسار واضح لاحتوائها أو حسمها.

أين يختل التنسيق؟

أثبتت دراسات حديثة أن وجود الذكاء الاصطناعي بوصفه عضواً في الفريق قد يؤثر سلباً في عمليات أساسية داخل الفرق من خلال تعطيل دينامياتها. على سبيل المثال، خلصت إحدى الدراسات إلى أن الفرق التي تضم عضواً من الذكاء الاصطناعي عانت مشكلات أكبر في التنسيق وسجلت أداء أدنى نتيجة تراجع الجهد المبذول من الأعضاء البشر.

يكشف ذلك عن تحد شائع: فوجود الذكاء الاصطناعي داخل الفريق قد يضعف عمليات جماعية مهمة، مثل التواصل والتنسيق، فضلاً عن الالتزام ببذل الجهد وتحمل المسؤولية، ما يفضي إلى تفاعلات أقل فعالية بين أعضاء الفريق.

يتسق هذا مع العمل الجماعي الفعال المعروف في أدبيات السلوك التنظيمي؛ إذ يتطلب تعاوناً سلساً وقابلاً للتكيف، ينشأ عندما يدرك أعضاء الفريق الحاجة إلى استباق كل منهم احتياجات الآخر وسلوكياته. غير أن الذكاء الاصطناعي يعطل هذه العملية بطرق غير مباشرة لكنها مؤثرة، ما ينعكس على كل من بناء الثقة وصناعة القرار. فعلى خلاف الزملاء البشر، لا يلتقط الذكاء الاصطناعي الإشارات السياقية، ولا يكيف أسلوب تواصله وفق ديناميات الفريق، ولا يستطيع بناء الروابط غير الرسمية التي تزيد فعالية الفرق. كما أن الذكاء الاصطناعي لا يتحمل تبعات الخطأ. ومع الوقت، تنشأ تكلفة تتزايد تدريجياً نتيجة العمل إلى جانب "عضو فريق" يتبع قواعد مختلفة جذرياً.

فضلاً عن ذلك، ونظراً إلى التصور السائد بأن الذكاء الاصطناعي يمتلك القدرة على الوصول إلى معلومات لا محدودة، قد يبالغ أعضاء الفريق البشر في الثقة بقدراته، فيلجؤون إلى إسناد جزء من جهدهم المعرفي إليه. قد يؤدي ذلك إلى تراجع إحساسهم بالمسؤولية وبالتفاعل النقدي الواعي، ما يخلق ما يمكن تسميته بـ "مفارقة الإشراف البشري على الذكاء الاصطناعي".

تطبيق مبادئ الأمان النفسي على دمج الذكاء الاصطناعي

لا يكمن الحل في التخلي عن الذكاء الاصطناعي أو التسليم بحتمية هذه النواقص، بل يتعين على القادة تطبيق مبادئ راسخة في السلوك التنظيمي على عملية دمج الذكاء الاصطناعي وإدارة التغيير المرتبطة بها. يتطلب ذلك التعامل مع دمج الذكاء الاصطناعي بوصفه تحدياً تعلمياً جماعياً داخل الفرق، لا مجرد عملية تقنية لتنفيذ أداة جديدة. وفيما يلي كيفية تحقيق ذلك:

إعادة صياغة دمج الذكاء الاصطناعي بوصفه عملية تعلم مستمرة، لا إجراء تنفيذياً:

تماماً مثلما يتعزز الأمان النفسي عند تقديم العمل بوصفه مهمة تعلم لا عملية تنفيذ، يتطلب دمج الذكاء الاصطناعي بنجاح تقديمه على أنه تجربة مستمرة قائمة على التعلم التطبيقي. وعلى القادة أن يوضحوا أنهم يتوقعون من الفرق اكتشاف حدود الذكاء الاصطناعي، وأن هذه الاكتشافات، مثلما هي الحال في أي مجال جديد، تمثل معرفة قيمة لا إخفاقاً. كما يجدر التعامل مع "الأخطاء" المبكرة للذكاء الاصطناعي بوصفها فرصاً للتعلم، تساعد الفرق على ضبط التوقعات وتطوير قواعد أفضل للتعاون.

وبدلاً من سؤال: "هل يجدي الذكاء الاصطناعي نفعاً؟"، على القائد أن يسأل أعضاء فريقه: "كيف يؤثر العمل مع الذكاء الاصطناعي في طريقة تعاونكم معاً؟" و"ما الذي تتعلمونه عن الحالات التي ينبغي فيها الوثوق بالذكاء الاصطناعي مقابل الاعتماد على الاجتهاد البشري؟". كما ينبغي مكافأة السلوكيات الصحيحة من خلال الإشادة بأعضاء الفريق الذين يكتشفون أخطاء الذكاء الاصطناعي، لا الذين يقبلون مخرجاته قبولاً أعمى. ويجدر بالقائد أن يجعل مساءلة الذكاء الاصطناعي دليلاً على حسن التقدير، لا مؤشراً على مقاومة الابتكار.

عند تطوير حالات استخدام الذكاء الاصطناعي التوليدي في البحث والتطوير بشركة ثري إم، لم يلجأ الفريق إلى فرض تبني هذه الأداة بعد إتاحتها، بل دعا متطوعين للمشاركة في تجارب أولية مبكرة. وكان الهدف هو توجيه رسالة واضحة مفادها أن الفريق يتعامل مع الذكاء الاصطناعي بوصفه مجالاً للتعلم والتجريب، لا أداة جاهزة للتنفيذ. وكان المتطوعون، وكذلك بقية المؤسسة، على دراية بأن دورهم يتمثل في المساعدة على فهم ما يجدي فعلياً، لا مجرد تقييم منتج مكتمل. وقد حرص الفريق على إبراز التحسينات التي أدخلت استناداً إلى ملاحظات المستخدمين، ليجسد ذلك عملياً تبني عقلية التعلم. علاوة على ذلك، لم يقتصر حديثهم على الوقت الموفر أو المهام المؤتمتة، بل اعتمدوا أيضاً على الملاحظات وشهادات الاستخدام الفعلي لبناء الثقة لدى الآخرين.

إظهار القابلية للخطأ والفضول المعرفي:

من الطرق التي يبني بها القائد الأمان النفسي اعترافه الصريح بقابليته للخطأ. وفي سياق الذكاء الاصطناعي، يعني ذلك الإقرار علناً بعدم فهم بعض مخرجاته، أو طرح التساؤلات حولها عندما تبدو محل شك. وينبغي للقائد تشجيع الاستخدام المسؤول للذكاء الاصطناعي، ومشاركة أخطائه الشخصية في التعامل معه وما استخلصه من دروس، ما يوضح أن مساءلة الذكاء الاصطناعي ليست مقبولة فحسب، بل متوقعة أيضاً. وفي هذا السياق، يجدر بالقائد أن يجسد الفضول المعرفي تجاه كيفية عمل الذكاء الاصطناعي اليوم وكيفية تطوره في المستقبل، ما يتيح فهم جوانب القصور على نحو أفضل وتعظيم جوانب الفائدة. ويمكن في هذا الإطار إرساء طقوس تعلم منتظمة، مثل عقد "مراجعات ما بعد تنفيذ الذكاء الاصطناعي"، يناقش فيها الفريق ما نجح وما لم ينجح وأسباب ذلك.

في شركة ثري إم، اعتاد الفريق نشر مستجدات التعلم والرؤى غير المتوقعة وحدود الذكاء الاصطناعي التي واجهها عبر القنوات الداخلية. كان الهدف من هذه الصياغة الجديدة هو تغيير تصورات المجتمع التقني حول هذه المبادرة، بحيث يتضح لهم أن الفريق المكلف بتطوير الأدوات يخوض عملية تعلم نشطة إلى جانبهم. وجاء كثير من هذا التبادل المعرفي في سياق إزالة الغموض عن الصندوق الأسود للذكاء الاصطناعي؛ فكلما أدرك الموظفون التقنيون أن الذكاء الاصطناعي يعتمد على مطابقة الأنماط لا على "التفكير"، ازداد فضولهم لاستكشاف حدوده، بدلاً من الوثوق به على نحو أعمى أو رفضه كلياً. كما عقد الفريق جلسات عديدة تجسد الفضول تجاه الذكاء الاصطناعي، لا الدفاع عن استخدامه أو تبريره.

إرساء بروتوكولات ذكية للتعامل مع الإخفاقات:

استناداً إلى مبادئ مستمدة من كتاب إيمي، النوع الصحيح من الخطأ: علم الفشل بالطريقة الصحيحة، يتعين على الفرق التمييز بين أنواع مختلفة من إخفاقات الذكاء الاصطناعي. ينبغي الاحتفاء بما يمكن تسميته "إخفاقات الذكاء الاصطناعي الذكية" واعتبارها فرصاً للتعلم، إذ تنطوي على اختبار الذكاء الاصطناعي في مجالات جديدة أو توسيع نطاق استخدامه بطرق مضبوطة يكون فيها مستوى المخاطر منخفضاً؛ أما "إخفاقات الذكاء الاصطناعي الأساسية"، مثل عدم التحقق من مخرجاته في مجالات نعرف حدود قدراته فيها مسبقاً، فينبغي منعها بتحسين العمليات والإجراءات.

لذلك، اختبرت شركة ثري إم الأدوات في البداية من خلال بضعة خبراء تقنيين (1-3 خبراء) كلفوا برصد كل مشكلة يمكنهم العثور عليها والإبلاغ عنها. وعندما اكتشف الخبراء مشكلات، شاركوها على نطاق واسع، وأوضحوا بدقة التغييرات التي أدخلت لمعالجتها، ما أسهم في إنشاء حلقة واضحة تربط الإخفاق بالتحسين. كما وسع فريق ثري إم نطاق التطبيق على نحو مدروس: بدأ أولاً بمجموعة صغيرة ومركزة من الخبراء، ثم انتقل إلى تجربة أوسع بمشاركة متطوعين وتطبيق محلي أشمل، تلتها خطط للتوسع إقليمياً وعالمياً، بهدف بناء نقاط تحقق متعددة تساعد على اكتشاف الإخفاقات والتعلم منها.

تعزيز الروابط الإنسانية:

ربما الأهم من ذلك كله أن دمج الذكاء الاصطناعي بنجاح يتطلب الحفاظ المتعمد على الروابط الإنسانية. فكلما تولى الذكاء الاصطناعي قدراً أكبر من المهام الروتينية، ازدادت الأعمال البشرية المتبقية تعقيداً وتشابكاً واحتياجاً إلى الاعتماد المتبادل، وهذا يزيد أهمية الأمان النفسي ولا يقلله. وعلى القائد أن يخصص مساحة واضحة لنقاشات بشرية خالصة حول ديناميات الفريق وتحديات دمج الذكاء الاصطناعي، كما يتعين عليه إدراك مخاوف أعضاء الفريق ومناقشتها، لا سيما ما يتعلق بإحلال الذكاء الاصطناعي محل الدور البشري، مع تأكيد أن الذكاء الاصطناعي يعزز الخبرة البشرية ولا ينتقص منها.

فضلاً عن ذلك، فإضفاء سمات بشرية على الذكاء الاصطناعي بهدف جعله أكثر موثوقية قد يفضي إلى أضرار غير مقصودة، إذ يخلق توقعات غير واقعية بشأن قدراته. فالأنظمة الحالية للذكاء الاصطناعي ليست ذكية حقاً، بل تقدم ما يمكن تسميته بـ "المثابرة الاصطناعية" التي تساعد القدرات البشرية وتدعمها؛ ومع ذلك، يعتقد معظم الناس وفقاً للدراسات الاستقصائية أن الذكاء الاصطناعي أداة لحل المشكلات.

على القائد أيضاً إرساء بروتوكولات لتجاوز التوصيات تضمن أن يتمكن أعضاء الفريق من تجاوز توصيات الذكاء الاصطناعي بسهولة، دون أن يضطروا إلى تبرير قراراتهم بإسهاب. ففي بعض الأحيان، يلتقط الحدس البشري ما قد يفوته تحليل الذكاء الاصطناعي.

تمكين الفريق من الازدهار

تشكل الثقة عنصراً محورياً في العمل المشترك بين البشر والذكاء الاصطناعي. ويتعين على الفرق أن تعمل في بيئة يشعر فيها الجميع بالقدرة على مساءلة أداء الذكاء الاصطناعي وتحديه عند الحاجة. وينبغي أن يشعر الأفراد بالارتياح للاعتراف بالارتباك إزاء توصيات الذكاء الاصطناعي والإبلاغ عن أخطائه واقتراح تحسينات على آليات العمل المشتركة بين البشر والذكاء الاصطناعي والتعبير عن المخاوف المتعلقة بإحلال الذكاء الاصطناعي محل التقديرات البشرية. وعلى القائد أن يعترف بطرق الذكاء الاصطناعي المميزة في تعطيل الأداء الطبيعي للفرق وأن يتعامل معها بوضوح، بدءاً من غموض آلياته الذي يعوق مساءلة الافتراضات، وصولاً إلى الحاجة إلى التعلم المستمر لمواكبة قدراته المتسارعة التطور وحدودها.

لا يتمحور مستقبل العمل حول الاختيار بين الذكاء البشري والذكاء الاصطناعي، بل حول بناء فرق تتيح لكل منهما الإسهام بأقصى طاقته. ومن المهم ألا يقاس نجاح دمج الذكاء الاصطناعي بمؤشرات أداء الذكاء الاصطناعي وحدها، بل أيضاً بفعالية الفريق كله وسرعة التعلم والقدرة على توظيف كل من الذكاء البشري والاصطناعي على نحو أمثل. غير أن تحقيق ذلك يتطلب التعامل مع دمج الذكاء الاصطناعي بوصفه تحدياً فعالاً لتطوير الفرق، لا مجرد استخدام كفء لتكنولوجيا جديدة. ومثلما تعلمنا أن العمل الجماعي الفعال يستلزم مهارات قد لا تتوافر تلقائياً لدى الجميع، فإن التعاون الفعال بين البشر والذكاء الاصطناعي يتطلب بدوره كفاءات جديدة يتعين على المؤسسات العمل بجد على تنميتها.

ما يبعث على التفاؤل هو أن الحد من غموض الثقة يمكن تحقيقه بالاستفادة من كثير من المبادئ التي تنجح مع الفرق البشرية، مثل الأمان النفسي والتواصل الواضح والتعلم المستمر من الإخفاقات الذكية؛ إذ يمكن لهذه المبادئ نفسها أن تنجح مع الفرق التي تجمع بين البشر والذكاء الاصطناعي، شريطة تطبيقها على نحو هادف وبقدر أكبر من الوعي.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2025.

المحتوى محمي