بعد ظاهرة الموت بواسطة الباور بوينت هل نحن أمام القتل عبر تعلم الآلة؟

7 دقائق

لا يُعتبر البرنامج الحاسوبي – كما يعدنا – حلاً دائماً لزيادة الإنتاجية، والكثير من ضحايا أخطائه يعلمون ذلك جيداً، فمنهم من عانوا من (الموت بسبب الباوربوينت) أو (Death by PowerPoint)، وهو المصطلح الذي يطلق على مشكلة استخدام برنامج العرض التقديمي (باوربوينت)، أحد أشهر برامج (مايكروسوفت أوفيس)، فهو وبحسب الخبراء يمتص الطاقة والحيوية من الاجتماعات.

كما أن المدققين لطالما كشفوا عن الأخطاء في جداول البيانات ببرنامج إكسل، وكذلك أخطاء الحسابات في وحدات الماكرو ببرنامج الأوفيس.

وينطبق الأمر نفسه على البريد الإلكتروني ومنصات الدردشة، ففي الاثنين اختلال وظيفي، إذ تؤثر زيادة عدد الرسائل في الأول بشكل واضح على الروح المعنوية والأداء الإداري، ولا عجب في ذلك فهذه حقيقة عالمية يعرفها الجميع.

كل هذا يطرح علينا السؤال التالي: ما الذي يجعل من الذكاء الاصطناعي وتعلم الآلة اللذين يعرفان اختصاراً بـ (AI) و (ML)، واثقين من أن تقنياتهما سوف تكونان بمأمن نسبي من النتائج العكسية أسوة بالبرامج الحاسوبية الأخرى؟

ينبغي ألا نكون واثقين لهذه الدرجة، فالتمكين الرقمي كثيراً ما يؤدي إلى سوء وتضرر في الإدارة التنظيمية، وتاريخ الشركات في استخدام أدوات الإنتاجية الشخصية يكشف عن الكثير من القصص السلبية المتعلقة بالنتائج غير المقصودة لتلك الأدوات.

يرى الكثيرون من المدراء أن فوائد الأدوات التقنية غالباً ما توازي تكلفتها، وهي كذلك تماماً؛ لأن الذكاء الاصطناعي وتعلم الآلة، من المفترض أن تكونا ذكيتان، وتشير برامجهما إلى مخاطر تنظيمية فريدة من نوعها.

من جانب آخر فإن هذه البرامج تُعطي ثقة في غير محلها من جهة النتائج التي تتوصل إليها، فهي إما تُضخم أو تزيد في التحذيرات القائمة على البيانات، وإما تعزز أو تفاقم الأخطاء البشرية للأشخاص اللذين يشرفون على التحكم بها.

والمشكلة لا تكمن في أن هذه التقنيات المبتكرة لا تعمل بالشكل الجيد، بل في الأشخاص المستخدمين لها، إذ يتخذون عن غير قصد خيارات تقوض من همة العملاء وزملاء العمل.
وهنا ننوه إلى أنه يمكن لبرنامج ذكي أن يُعطي نتائج عكسية لعمل ما ويقتله بالمعنى المجازي، وهو ما نطلق عليه مصطلح "الموت بسبب تعلم الآلة هو الشكل المستقبلي الجديد لـ "الموت بسبب البوربوينت".

وصحيح أنه لا يوجد شخص يُنتج عرضاً تقديمياً ليُضيع فيه وقت الآخرين، إلا أن ذلك يحدث، كما لا يوجد شخص يرغب في التدرب على خوارزميات تعلم الآلة لإعطاء توقعات خاطئة، إلا أن ذلك يحدث أيضاً.

ويمكن القول إن مشكلة النتائج العكسية للشبكات الذكية محصنة بنوايا حسنة.

وعلى سبيل المثال، لاحظ الكاتبان جيديون مان وكاثي أونيل هذا الشيء بشكل واضح في مقالتهما بعنوان "الخوارزميات ليست منصفة بطبيعتها" (Hiring Algorithms Are Not Neutral) في هارفارد بزنس ريفيو، وذكرا فيها أن الخوارزميات التي يصنعها الإنسان عرضة للخطأ، وأنه من الممكن أن تُعزز عملية التمييز في ممارسات التوظيف.

وبالتالي فإن أي مدير للموارد البشرية يستخدم هذا النظام الذكي من الخوارزميات عليه أن يكون على علم بحدوده، وأن تكون لديه خطة للتعامل معه، فالخوارزميات في جزء منها هي أفكارنا التي زرعناها في التعليمات البرمجية، أي أنها تعكس التحيزات والنزعة البشرية التي تقود برمجيات تعلم الآلة لارتكاب الأخطاء والتفسيرات المغلوطة.

هذه النزعات الجوهرية في مجموعة البيانات والخوارزميات على حد سواء، يمكن إيجادها حيثما يلزم اتخاذ قرارات هامة تستند إلى البيانات نفسها، مثل تجزئة جهود العملاء ووضع خصائص المنتج وتقييمات مخاطر المشروع.

وربما يكون هناك نزعات في الكشف عن التحيزات في البرامج نفسها، وبمعنى آخر لا يمكننا الهروب من حقيقة أن القوة الحاسوبية لتعلم الآلة تتعايش بطبيعتها مع الضعف الإدراكي للبشر والعكس صحيح، وهذا يشكل تحدياً للإدارة والقيادة أكثر مما هي قضية تقنية بطبيعتها.

والسؤال الأصعب هو: من الذي سيقود هذا التطور الرقمي المشترك للموهبة والتقنية والقيادة المستدامة نحو النجاح؟

للإجابة عن هذا السؤال يجب الأخذ بعين الاعتبار صيغتي (الذكاء الاصطناعي وتعلم الآلة) اللتين من المرجح أن تهيمنا على معظم مبادرات الشركات وهما:

- (الذكاء الاصطناعي/ تعلم الآلة) الإيجابي: وتعني هذه الصيغة أن الأشخاص هم من يتحكمون بـ (الـ"AI، و"ML") للقيام بأية أعمال، أي أن البشر هم المسؤولون عن إدارتها، وهم من يصدرون الأوامر للآلات لتأدية أية مهمة، وهنا يحكم البشر.

-(الذكاء الاصطناعي/ تعلم الآلة) السلبي: وتعني عكس الأولى، أي أن الخوارزميات هي التي تحدد إلى حد كبير عمل الأشخاص، وهي من تُصدر الأوامر للبشر لأداء أية مهمة، وهنا تحكم الآلة.

وبشكل مبسط في الصيغة الأولى فإن البشر هم من يدربون الآلات، بينما في الصيغة الثانية الآلة هي من تدرب البشر.

ومع صعود البيانات الضخمة، وازدياد البرامج الذكية، فإن هذه الازدواجية ستصبح واحدة من أكبر التحديات الاستراتيجية والمخاطر التي تواجه الإدارات والقيادات في جميع أنحاء العالم.

ويمكن القول إن أنظمة الـ "إيه آي" و"إم إل" يمكنها أن تتكاثر، وتتقمص الأدوار رقمياً، في المشاكل الإنتاجية المرتبطة ببرامج العروض التقديمية وجداول البيانات وبرامج الاتصالات.

وغالباً ما يتم إعلام الموظفين ذوي التدريب المحدود باستخدام هذه الأنظمة وأدواتها لإنجاز مهامهم، إلا أن معظم الشركات لديها عدد قليل من الآليات التي يمكن من خلالها تطوير نوعية العمل.

فرغم توفر التكنولوجيا المتطورة لا تزال العروض التقديمية مضيعة للوقت، ومطابقة جداول البيانات تأخذ وقتاً إضافياً، كذلك المدراء التنفيذيون يقضون ساعات طويلة في الرد على المحادثات ورسائل البريد الإلكتروني.

ومثلما حوّلت هذه الأدوات التقنية العاملين في مجال المعلومات إلى مقدمين ومحللين ماليين هواة، فإن تطبيق وسائل الذكاء الاصطناعي وأنظمته، وتعلم الآلة ستحولهم إلى علماء بيانات هواة أيضاً.

لكن وبما أن البيانات والخوارزميات الأكثر ذكاء أصبحت تستخدم بكثرة وبشكل واسع في الشركات، فإلى أية مدى ستكون مستدامة؟

بالتأكيد سينبثق من هذا التطور أشخاص موهوبون في استخدام هذه الأنظمة، إلا أن الأخطاء والفرص الضائعة وعدم الكفاءة فيها سيكون لها الأثر الأكبر من الناحية التنظيمية.

والذي يعتقد أن المدراء سيستفادون من تقنيات الذكاء الاصطناعي وتعلم الآلة بالحد الأدنى من التدريب، كمن يعتقد أن بإمكان أية شخص في وقت فراغه تحويل شيء مهمل ومبعثر إلى معرض مثير للإعجاب.

بالتأكيد هذا وهم، فعلى الأرجح، ستقوم الشركات بوضع برمجيات غير مدروسة تتطلب قدراً هائلاً من الانتباه، وتترك خلفها فوضى غير متوقعة، إضافة إلى مشاكل بين الفينة والأخرى.

فعلى سبيل المثال، يعتبر مفهوم الـ "التطابق الزائد" (overfitting)، في علم تعلم الآلة، دليلاً على أن الشبكة أصبحت متخصصة بشكل كبير في عينة التعلم، لكنه خطأ شائع يحدث في تطبيقات الشبكة العصبونية ببرامج تعلم الآلة، يقع فيه حتى أمهر خبراء البيانات، وفي هذا الخطأ يكون الذكاء الاصطناعي دقيقاً جداً إلى حد يُلامس الحقيقية، فبرامج تعلم الآلة تصدر هذا الخطأ الذي يتسبب في الكثير من الفوضى، عوضاً عن التركيز على البيانات الأساسية، وتندمج مع البيانات المحفوظة مسبقاً لتصبح بدورها مضللة وغير دقيقة عند معالجة أية بيانات جديدة.

بالنسبة للشركات يمكن أن تكون النتائج المتوقعة التي تصدرها أجهزة تعلم الآلة لا معنى لها، وتؤدي إلى نتائج عكسية وسلبية منها أخطاء في اختيار الموظفين والتصميمات وتوقعات المبيعات.
ويرى العلماء أنه يمكن تصحيح أخطاء "التطابق الزائد" مثل أخطاء جداول البيانات، لكن ماذا سيحدث إذا كثرت إسقاطات الموظفين الهواة المشرفين على أنظمة تعلم الآلة، والتي يعتقدون بأنها نماذج صحيحة.هنا يمكن القول إن هذه الخوارزمية ربما تسبب كارثة.

فكلما زادت موارد البيانات التي تمتلكها الشركات ازدادت الحاجة إلى الإشراف الانضباطي على نظم الذكاء الاصطناعي وتعلم الآلة، فالخوارزميات الذكية تتطلب إدارة أذكى للمخاطر.

من جانب آخر، فإن صيغة الذكاء الاصطناعي/ وتعلم الآلة السلبي، تقدم حساسية حسابية ومخاطر مختلفة عن الصيغة الأولى.

فالأنظمة في هذه الصيغة تتصرف وكأنها المدير أو المدرب وتضع الأهداف والقواعد الإرشادية وتقدم النصائح اعتماداً على البيانات لإنجاز المهام.

والإنتاجية الشخصية في هذه الصيغة مفروضة، فالنصوص ورسائل البريد الإلكتروني يتم الرد عليها من قِبل البرنامج، وتتم جدولة العمل اليومي عندما تكون متأخراً عن الدوام، ويركز على التحليلات التي تسلط الضوء على النتائج الخاصة بالبرنامج نفسه، حتى العروض التقديمية تصبح مثل الرسوم المتحركة.

ورغم أن الشركات الكبرى مثل غوغل ومايكروسوفت وسلاك وسيلس فورس، يحاولون البحث عن طرق تجعل البرامج الذكية أكثر ذكاء من خلال خوارزميات يمكنها التكلم مع مستخدميها البشر. إذاً أين تكمن المشكلة؟

إن الخطر الأكثر وضوحاً بطبيعة الحال هو ما إذا كانت "البرامج الذكية" تمنح مستخدميها الأوامر الصحيحة حقاً. لكن يجب على الإدارة العليا أن تجعل ذلك تحت مراجعة ورقابة صارمين.

يتمثل الخطر الأقوى والأكثر تخريباً في أن تقنيات الذكاء الاصطناعي وتعلم الآلة متجذرة جداً، فيما يتعلق بالامتثال البشري والالتزام والطاعة. أي أن الموظفين مطالبون بأن يكونوا تابعين للذكاء الاصطناعي حتى يجعلوه ناجحاً. هذا النوع من عدم التمكين قد يؤدي إلى خلق مقاومة لدى الموظف، والالتزام السطحي غير الجاد، والتخريب عن عمد. على سبيل المثال، قد يُخبر مندوب خدمة العملاء أحد العملاء غير الراضين "أود أن أساعدك، ولكن البرنامج يمنعني من منحك أية خيار من إجراءات استرداد الأموال".

بعبارة أخرى، فإنه يتم التقليل من أهمية اللمسة الإنسانية وفاعليتها عن عمد، من خلال القرارات التي تعتمد على البيانات. ويُنتظر من الموظفين أن يخضعوا قراراتهم إلى الخوارزميات التي ستصبح مديرهم الحقيقي، وسيقوم النظام بضبط تلك القرارات إذا ما خرجت عن السياق. في حين أنه لا يوجد حل لتلك التحديات، إلا أن هناك مناهج تحقق توازناً سليماً بين المخاطر والفرص. ومن المؤكد أن الشركات الأكثر نجاحاً سوف تتبنى "حوكمة البيانات" وتوظف أفضل علماء البيانات الذين يمكنهم ذلك. ولكن ثقافياً وتشغيلياً، سيلزمهم اعتماد ثلاث مبادرات مترابطة للتخفيف من المخاطر:

1- كتابة بيان عن ذكاء الآلة: على خلاف مفهوم "توماس بين" حول (البديهية) و(إعلان الاستقلال)، سيحدد ويوضح بيان استقلال ذكاء الآلة المبادئ المتعلقة بكيفية توقع الشركة استخدام الخوارزميات الذكية لزيادة الأداء والإنتاجية، يصف المستند عادة حالات الاستخدام والسيناريوهات لتوضيح نقاطها. وتهدف إلى إعطاء المديرين والعاملين إحساساً واضحاً من حيث أين سوف يقوم الذكاء الاصطناعي وتعلم الآلة بزيادة مهامهم، وأين يمكن أن يحل محلهم. ينصَب البيان في المقام الأول عن إدارة التوقعات، وينبغي أن يقدم البراهين لأية شخص في الشركة.

2- توظيف شفافية جوهرية واستخدامها: تعد المراجعة والتحقيق والتحقق من المبادئ الأساسية في مناخ العمل الخاص بالشركات المعتمدة على بيانات الذكاء الصناعي وتعلم الآلة، ويجب أن تكون مشاركة الأفكار والبيانات والنماذج بين "جماعة الممارسة" من أفضل الممارسات، تستخدم الشركات الكبرى – بشكل متزايد – نطاقات آمنة تشجع الأفراد والفرق على نشر مجموعات البيانات ونماذجها للمراجعة. في بعض الأحيان، تنمو تلك النطاقات من مبادرات حوكمة البيانات. وفي حالات أخرى، يتم إنتاجها من قبل فرق علوم البيانات التي تسعى لزيادة وضوح الرؤية فيما يتعلق بنشاط المجموعات المختلفة بشكل رقمي، ينطوي التطلع نحو توسيع الوعي على نطاق المؤسسة دون التقيد بمبادرة تصميم "من أسفل لأعلى".

3- إنشاء خارطة طريق قائمة على المفاضلة: يعتبر علم البيانات والذكاء الاصطناعي والتعلم الآلة، مجالات إبداعية ديناميكية تتطور بسرعة وبشكل انتهازي. قد تصبح برامج وأنظمة تعلم الآلة الإيجابية بالأمس، عمليات أعمال سلبية للذكاء الاصطناعي وتعلم الآلة في المستقبل. نظراً لتطلع الشركات القديمة نحو التحول إلى نظم البيانات والتعلم الآلي والمنصات الرقمية، سوف تقودهم خارطة الطريق الخاصة بهم إلى حيث تعتقد الإدارة أن الاستثمارات في الذكاء الاصطناعي وتعلم الآلة سيكون أكثر قيمة من الاستثمارات السلبية. فعلى سبيل المثال، يمكن أن تفضل أنظمة الذكاء الاصطناعي وتعلم الآلة الموجهة نحو العملاء، المواهب المختلفة والمفاضلات التي تركز على كفاءة العمليات الداخلية.

تقدم إدارة الغربلة دراسة حالة ممتازة: استكشف فريق التحليلات في إحدى شركات الاتصالات العملاقة استخدام تقنيات التعلم الآلي لتحديد العملاء الذين من المرجح أن يغادروا ويتحولوا إلى مزود خدمة آخر. من المرجح أن يكون اختبار عروض استرجاع العملاء واستبقائهم بمثابة فوز كبير للمؤسسة، وسيؤدي امتلاك تقنيات تعلم الآلة التي تخفض معدلات مغادرة العملاء إلى تحسين كفاءة العمليات الداخلية بشكل كبير. ولكن يعتقد العديد من المحللين الذين يركزون على العملاء أن مجرد الاحتفاظ بالعملاء لم يعد كافياً؛ لأنهم اعتقدوا أن جزءاً من العملاء يمكن أن يقبلوا بالمزيد من الخدمات والمنتجات بسبب الخدمات الجديدة والإضافية، إذا كانت العروض مؤطرة بشكل صحيح. لقد أرادوا تدريب البيانات والخوارزميات القائمة على آلات التعلم على التعرف على العملاء الذين قد يقبلون بالمزيد من الخدمات والمنتجات الإضافية، اتضح أن هذه الفكرة كانت تدار بواسطة البيانات وترتكز على العميل بشكل رئيسي.

مثل بيان ذكاء الآلات، تهدف خارطة الطريق للمفاضلات إلى إدارة التوقعات، ولكنها تتطلع إلى الاعتماد على الشفافية الجوهرية لمعرفة ما هي قدرات أنظمة الذكاء الصناعي وتعلم الآلة الداخلية، وما هي الأشياء الجديدة التي تحتاج إلى تعديلها وتهيئتها أو اكتسابها.

وببساطة، فإن القادة الجادين في قيادة التحول إلى أنظمة الذكاء الاصطناعي وتعلم الآلة لا يستثمرون فقط في الخبرات التقنية المبتكرة ولكن أيضاً في القدرات التنظيمية الجديدة. وعندما يفعلون ذلك، يجب عليهم توخي الحرص الشديد على عدم تكرار أخطاء الإنتاجية في الماضي.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

المحتوى محمي