عندما تكون مستعداً لإدراج تقنيات الذكاء الاصطناعي في شركتك، يجب أن تقوم بالتحليل التالي: ما الذي يُحتمل أن يسير على نحو خاطئ؟ ماذا يُحتمل أن يفعل منتجنا أو الخدمة التي نقدمها؟ ما الذي يحدث في حال فشلت منتجاتنا في تقديم المرجو منها؟ هل لدينا خطة للتخفيف من حدة الأضرار؟ تأمل الموقف المحرج الذي وجدت مايكروسوفت نفسها فيه بسبب فضيحة روبوت الدردشة تاي (Tay)، عندما استغل متصيدو الإنترنت نقاط الضعف في شيفرة الروبوت، ولقّموها بمحتوى عنصري قرأه الملايين على مواقع التواصل الاجتماعي.

يمكن تعقّب الحوادث، بما فيها تلك المميتة، الناجمة عن البرمجيات أو الروبوتات الصناعية بالعودة إلى الأيام الأولى لتكنولوجيا مشابهة، ولكنها ليست ناجمة بالضرورة عن النظم بحد ذاتها. ومن ناحية أخرى، تتصل إخفاقات الذكاء الاصطناعي اتصالاً مباشراً بالأخطاء الناتجة عن الذكاء الذي صممت نظم مماثلة لتقديمه. ويمكننا أن نُصنّف بشكل عام تلك الإخفاقات إلى "الأخطاء المرتكبة أثناء مرحلة التعلم" و"الأخطاء المرتكبة أثناء مرحلة الأداء". ويمكن أن يفشل النظام في تعلّم ما يريد مصمّه أن يتعلمه وقد يتعلّم عوضاً عن ذلك وظيفة مختلفة ولكنها مترابطة.

من الأمثلة التي يُستشهَد بها كثيراً عن ذلك نظام رؤية حاسوبي كان الجيش الأميركي يأمل أن يستخدمه لرصد دبابات العدو المموهة تلقائياً. كان من المفترض أن يُصنّف النظام صور الدبابات، ولكنه تعلّم بدلاً من ذلك أن يُميّز خلفيات صور مماثلة. وتشمل الأمثلة الأخرى المشاكل الناجمة عن مهام سيئة التصميم التي من شأنها أن تُكافئ نظم الذكاء الاصطناعي على سلوكيات مرغوبة بشكل جزئي فقط مثل إيقاف لعبة لتفادي الخسارة، أو لمس كرة قدم بشكل متكرر لنيل نقاط على استحواذها.

ويمكن أن تُساعد مراقبة بعض الأمثلة الأخيرة حول إخفاق الذكاء الاصطناعي على فهم ماهية المشاكل التي يُحتمل أن تظهر بشكل أفضل وما يمكنك القيام به لمنع وقوعها – أو إصلاح الوضع سريعاً على الأقل بعد إخفاقها. لنستعرض هذه الأمثلة حول إخفاقات الذكاء الاصطناعي من الأعوام القليلة الماضية:

  • 2015: أوجد مولد تلقائي للردود على رسائل البريد الإلكتروني استجابات غير لائقة، مثل كتابة "أحبك" لزميل في العمل.
  • 2015: أمسك روبوت مخصص للإمساك بقطع غيار السيارات رجلاً وقتله.
  • 2015: صنّف برنامج مخصص لوسم الصور الأشخاص ذوي البشرة السمراء على أنهم غوريلات.
  • 2015: صنّف ذكاء اصطناعي طبي المرضى المصابين بالربو باعتبارهم معرضين بدرجة أقل للإصابة بالإلتهاب الرئوي.
  • 2015: فشل برنامج تصفية المحتوى المخصص للبالغين في إزالة المحتوى غير المناسب، ما أتاح وصول الأطفال إلى محتوى عنيف وله مضمون جنسي.
  • 2016: تَصرّف ذكاء اصطناعي مصمم للتنبؤ بمعاودة الإجرام بطريقة عنصرية.
  • 2016: اِستغل ممثل للذكاء الاصطناعي علامة جائزة ليفوز بلعبة دون استكمال اللعبة عملياً.
  • 2016: صمّمت شخصيات غير قابلة للعب (NPCs) في ألعاب الفيديو (وهي الشخصيات التي لا يتحكم بها أي لاعب بشري) أسلحة فتاكة وغير مرخصة.
  • 2016: حكّم الذكاء الاصطناعي مسابقة جمال وأعطى تقييماً منخفضاً للمتسابقين السمر.
  • 2016: تصادم روبوت أمن مركز تجاري مع طفل وأذاه.
  • 2016: خسر الذكاء الاصطناعي المعروف باسم ألفا غو (AlphaGo) أمام إنسان في بطولة عالمية للعبة غو (Go).
  • 2016: تعرّضت سيارة ذاتية القيادة لحادث مميت.

يختبر المستهلكون يومياً عيوباً أكثر شيوعاً للذكاء الاصطناعي مثل: حظر فلاتر الرسائل الإلكترونية المزعجة للرسائل الإلكترونية الهامة، وتقديم النظام العالمي لتحديد المواقع (GPS) اتجاهات خاطئة، وتحريف الترجمات الآلية لمعاني الجمل، واستبدال التصحيح التلقائي لكلمة خاطئة بكلمة منشودة، وفشل نظم الاستدلال البيولوجي في التعرف على الأشخاص، وإخفاق برنامج التدوين في تسجيل ما يُقال؛ ويُعتبر إيجاد أمثلة عن نظم ذكاء اصطناعي لا تفشل أمراً صعباً بشكل عام.

بتحليل قائمة إخفاقات الذكاء الاصطناعي الواردة أعلاه، يمكننا أن نتوصل إلى تعميم بسيط: سيفشل ذكاء اصطناعي مصمم ليقوم بعمل ما في القيام بهذا العمل في نهاية المطاف. وبينما قد يبدو هذا التعميم عادياً، إلا أنه يمثل أداة تعميم فاعلة يمكن استخدامها للتنبؤ بالإخفاقات المستقبلية لنظم الذكاء الاصطناعي. على سبيل المثال، عند البحث في نظم الذكاء الاصطناعي المتطورة الراهنة والمستقبلية يمكننا التكهن بما يلي:

  • سيخطئ أطباء الذكاء الاصطناعي في تشخيص حالات بعض المرضى بطريقة لن يفشل بها الطبيب الحقيقي.
  • سيسيء برنامج توصيف مقطع فيديو فهم حبكة الأفلام.
  • ستُخفق البرامج المخصصة لتوليد الدعابات من وقت لآخر في جعلها مضحكة.
  • ستخلط برامج الكشف عن النقد الساخر بين التصريحات المتهكمة والصادقة.
  • سيكون برنامج اختيار الموظفين متحيزاً بصورة منهجية. وبالتالي سيعيّن أشخاصاً منخفضي الأداء.  
  • سيسيء روبوت استكشاف كوكب المريخ تقدير بيئته وسيقع في فوهة بركان.
  • سيُغفل برنامج إعداد الضرائب خصومات مهمة أو سيُطبّق خصومات غير مناسبة.

ما الدرس المستفاد من الأمثلة والتحليلات الواردة أعلاه؟ الإخفاقات ستحدث! الأمر محتم. ولكن، لا يزال بإمكاننا تطبيق أفضل الممارسات مثل:

  • إدارة مدخلات المستخدم إلى النظام واقتصار التعلم على بيانات مدخلة تم التحقق منها.
  • التحقق من الانحيازات العنصرية والجنسية والعمرية وغيرها من أوجه الانحياز الشائعة في خوارزمياتك.
  • تحليل الطرق التي قد يفشل برنامجك فيها بوضوح، ومن ثم تقديم آلية أمان لكل فشل محتمل.
  • حيازة منتج احتياطي أو خدمة أقل "ذكاء".
  • حيازة خطة تواصل قيد التطبيق للتعامل مع وسائل الإعلام في حالة وقوع فشل محرج. (تلميح: اِبدأ باعتذار).

أتوقع أن يتزايد تواتر إخفاقات الذكاء الاصطناعي ومدى جسامتها على حد سواء باطراد مع ازدياد قدرات نظم الذكاء الاصطناعي. وما حالات الفشل التي تواجهها نظم الذكاء الاصطناعي ذات المجالات المحدودة حالياً إلا غيض من فيض؛ إذ  بمجرد أن نطور ذكاء اصطناعياً عاماً قادراً على الأداء عبر عدة مجالات، سيكون الإحراج آخر شيء نفكر فيه.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

ﺟﻣﯾﻊ اﻟﺣﻘوق ﻣﺣﻔوظﺔ ﻟﺷرﻛﺔ ھﺎرﻓﺎرد ﺑزﻧس ﺑﺑﻠﯾﺷﻧﻎ، ﺑوﺳطن، اﻟوﻻﯾﺎت اﻟﻣﺗﺣدة اﻷﻣﯾرﻛﯾﺔ - 2019

اترك تعليق

قم بـ تسجيل الدخول لتستطيع التعليق
avatar
  شارك  
التنبيه لـ
error: المحتوى محمي !!