ماذا سيحدث عندما تفشل خوارزمية شركتك؟

3 دقائق
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

عندما تكون مستعداً لإدراج تقنيات الذكاء الاصطناعي في شركتك، يجب عليك إجراء التحليل التالي: ما الذي قد يسير على نحو خاطئ؟ ماذا يُحتمل أن يفعل منتجنا أو الخدمة التي نقدمها؟ ما الذي يحدث في حال فشلت منتجاتنا في تقديم المرجو منها؟ هل لدينا خطة للتخفيف من حدة الأضرار؟ تأمل الموقف المحرج الذي وجدت “مايكروسوفت” نفسها فيه بسبب فضيحة روبوت الدردشة تاي (Tay)، عندما استغل متصيدو الإنترنت نقاط الضعف في شيفرة الروبوت، ولقّموها بمحتوى عنصري قرأه الملايين على مواقع التواصل الاجتماعي.

يمكن تعقّب الحوادث، بما فيها تلك المميتة، الناجمة عن البرمجيات أو الروبوتات الصناعية بالعودة إلى الأيام الأولى لتكنولوجيا مشابهة، ولكنها ليست ناجمة بالضرورة عن النظم بحد ذاتها. ومن ناحية أخرى، تتصل إخفاقات الذكاء الاصطناعي اتصالاً مباشراً بالأخطاء الناتجة عن الذكاء الذي صُممت نظم مماثلة لتقديمه. ويمكننا تصنيف تلك الإخفاقات إلى “الأخطاء المرتكبة أثناء مرحلة التعلم” و”الأخطاء المرتكبة في أثناء مرحلة الأداء”. وقد يفشل النظام في تعلّم ما يريد مصمّه تعلمه وقد يتعلّم بدلاً من ذلك وظيفة مختلفة ولكنها مترابطة.

من الأمثلة التي يُستشهَد بها كثيراً على ذلك، نظام “رؤية حاسوبي”، الذي كان الجيش الأميركي يأمل في استخدمه لرصد دبابات العدو المموهة تلقائياً. كان من المفترض أن يُصنّف النظام صور الدبابات، ولكنه تعلّم بدلاً من ذلك تمييز خلفيات صور مماثلة. وتشمل الأمثلة الأخرى، المشكلات الناجمة عن مهام سيئة التصميم والتي من شأنها فقط مكافأة نظم الذكاء الاصطناعي جزئياً على سلوكيات مرغوبة فقط، مثل إيقاف لعبة لتفادي الخسارة، أو لمس كرة قدم بشكل متكرر لنيل نقاط على استحواذها.

ويمكن أن تُساعدك مراقبة بعض الأمثلة الأخيرة حول إخفاق الذكاء الاصطناعي على فهم أفضل لماهية المشكلات التي يُحتمل ظهورها وما يمكنك القيام به لمنع وقوعها – أو إصلاح الوضع سريعاً على الأقل بعد إخفاقها. لنستعرض هذه الأمثلة حول إخفاقات الذكاء الاصطناعي من الأعوام القليلة الماضية:

  • 2015: أوجد مولد تلقائي للردود على رسائل البريد الإلكتروني استجابات غير لائقة، مثل كتابة “أحبك” لزميل في العمل.
  • 2015: أمسك روبوت مخصص للإمساك بقطع غيار السيارات رجلاً وقتله.
  • 2015: صنّف برنامج مخصص لوسم الصور الأشخاص ذوي البشرة السمراء على أنهم غوريلات.
  • 2015: صنّف ذكاء اصطناعي طبي المرضى المصابين بالربو باعتبارهم معرضين بدرجة أقل للإصابة بالإلتهاب الرئوي.
  • 2015: فشل برنامج تصفية المحتوى المخصص للبالغين في إزالة المحتوى غير المناسب، ما أتاح وصول الأطفال إلى محتوى عنيف وله مضمون جنسي.
  • 2016: تَصرّف ذكاء اصطناعي مصمم للتنبؤ بمعاودة الإجرام بطريقة عنصرية.
  • 2016: اِستغل ممثل للذكاء الاصطناعي علامة جائزة ليفوز بلعبة دون استكمال اللعبة عملياً.
  • 2016: صمّمت شخصيات غير قابلة للعب (NPCs) في ألعاب الفيديو (وهي الشخصيات التي لا يتحكم بها أي لاعب بشري) أسلحة فتاكة وغير مرخصة.
  • 2016: حكّم الذكاء الاصطناعي مسابقة جمال وأعطى تقييماً منخفضاً للمتسابقين السمر.
  • 2016: تصادم روبوت أمن مركز تجاري مع طفل وأذاه.
  • 2016: خسر الذكاء الاصطناعي المعروف باسم “ألفا غو” (AlphaGo) أمام إنسان في بطولة عالمية للعبة “غو” (Go).
  • 2016: تعرّضت سيارة ذاتية القيادة لحادث مميت.

يختبر المستهلكون يومياً عيوباً أكثر شيوعاً للذكاء الاصطناعي مثل: حظر فلاتر الرسائل الإلكترونية المزعجة للرسائل الإلكترونية المهمة، وتقديم النظام العالمي لتحديد المواقع (GPS) اتجاهات خاطئة، وتحريف الترجمات الآلية لمعاني الجمل، واستبدال التصحيح التلقائي لكلمة خاطئة بكلمة منشودة، وفشل نظم الاستدلال البيولوجي في التعرف على الأشخاص، وإخفاق برنامج التدوين في تسجيل ما يُقال؛ ويُعتبر إيجاد أمثلة عن نظم ذكاء اصطناعي لا تفشل أمراً صعباً بشكل عام.

بتحليل قائمة إخفاقات الذكاء الاصطناعي الواردة أعلاه، يمكننا أن نتوصل إلى تعميم بسيط: سيفشل ذكاء اصطناعي مصمم ليقوم بعمل ما في القيام بهذا العمل في نهاية المطاف. وبينما قد يبدو هذا التعميم عادياً، إلا أنه يمثل أداة تعميم فاعلة يمكن استخدامها للتنبؤ بالإخفاقات المستقبلية لنظم الذكاء الاصطناعي. على سبيل المثال، عند البحث في نظم الذكاء الاصطناعي المتطورة الراهنة والمستقبلية يمكننا التكهن بما يلي:

  • سيخطئ أطباء الذكاء الاصطناعي في تشخيص حالات بعض المرضى بطريقة لن يفشل بها الطبيب الحقيقي.
  • سيسيء برنامج توصيف مقطع فيديو فهم حبكة الأفلام.
  • ستُخفق البرامج المخصصة لتوليد الدعابات من وقت لآخر في جعلها مضحكة.
  • ستخلط برامج الكشف عن النقد الساخر بين التصريحات المتهكمة والصادقة.
  • سيكون برنامج اختيار الموظفين متحيزاً بصورة منهجية. وبالتالي سيعيّن أشخاصاً منخفضي الأداء.
  • سيسيء روبوت استكشاف كوكب المريخ تقدير بيئته وسيقع في فوهة بركان.
  • سيُغفل برنامج إعداد الضرائب خصومات مهمة أو سيُطبّق خصومات غير مناسبة.

ما الدرس المستفاد من الأمثلة والتحليلات الواردة أعلاه؟ الإخفاقات ستحدث! الأمر محتم. ولكن، لا يزال بإمكاننا تطبيق أفضل الممارسات مثل:

  • إدارة مدخلات المستخدم إلى النظام واقتصار التعلم على بيانات مدخلة تم التحقق منها.
  • التحقق من الانحيازات العنصرية والجنسية والعمرية وغيرها من أوجه الانحياز الشائعة في خوارزمياتك.
  • تحليل الطرق التي قد يفشل برنامجك فيها بوضوح، ومن ثم تقديم آلية أمان لكل فشل محتمل.
  • حيازة منتج احتياطي أو خدمة أقل “ذكاء”.
  • حيازة خطة تواصل قيد التطبيق للتعامل مع وسائل الإعلام في حالة وقوع فشل محرج. (تلميح: اِبدأ باعتذار).

أتوقع أن يتزايد تواتر إخفاقات الذكاء الاصطناعي ومدى جسامتها على حد سواء باطراد مع ازدياد قدرات نظم الذكاء الاصطناعي. وما حالات الفشل التي تواجهها نظم الذكاء الاصطناعي ذات المجالات المحدودة حالياً إلا غيض من فيض؛ إذ بمجرد أن نطور ذكاء اصطناعياً عاماً قادراً على الأداء عبر عدة مجالات، سيكون الإحراج آخر شيء نفكر فيه.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .