المخاطر الحقيقية للذكاء الاصطناعي

5 دقيقة
الجوانب السلبية لتقنيات الذكاء الاصطناعي وتعلم الآلة
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

إن مبادرة الذكاء الاصطناعي التي أعلن عنها إيلون ماسك وشركاؤه قبل أسابيع، تذكرنا بمبادرة “التحدي الأكبر” التي أطلقتها وكالة المشاريع البحثية المتقدمة في المجال الدفاعي “داربا”، ومؤسسة “الجائزة X”، وكذلك مبادرة “كمبيوتر محمول لكل طفل” والتي أطلقتها إحدى مؤسسات (MIT) – وهي كلها عبارة عن آليات مؤسسية مبتكرة صممت لخدمة هدف صريح هو استقطاب أفضل الموهوبين، وكذلك لفت انتباه العالم إلى مشكلات تستحق الاهتمام مثل مشكلة مخاطر الذكاء الاصطناعي.

هذه المبادرات قادرة على النجاح، وأنا شخصياً أراهن على أن مبادرة تحديات الذكاء الاصطناعي لماسك هذه ستستدعي اتخاذ مبادرات منافسة مشابهة لتحديد سلبيات الذكاء الاصطناعي، حيث إن الشركات الذكية مثل “جوجل”، و”فيسبوك”، و”آبل”، و”أمازون”، و”بايدو”، و”علي بابا” ستدرك فوراً بأن ما يسمى بالقضايا “ذات الطابع غير الربحي”، والتي يحددها الباحثون، يجب أن تكون جزءاً من خريطة الطريق الخاصة بها في مجال تكنولوجيا الذكاء الاصطناعي والتعلم الآلي وما يدور حولهم من تحديات أو مخاطر.

لكن إليكم التحدي الأساسي الذي يحيط بالذكاء الاصطناعي ويتعيّن على مبادرة ماسك أن تواجهه: المشاعر.

إن مصطلح “الذكاء الاصطناعي” هو مصطلح مضلل؛ فهذه العبارة لا تمثل الواقع الحقيقي للتعلم والإدراك، والمفارقة في الأمر هي أنها أساءت فهم هذا الواقع أيضاً. فالبراهين التاريخية تشير بأغلبية ساحقة إلى أن الذكاء والإدراك يتطوران بصورة مشتركة ومتزامنة مع العواطف والمشاعر؛ وبأن الخيال والإبداع مرتبطان بالعواطف والمشاعر بقدر ارتباطهما بالمعرفة والإدراك.

إذا أراد الناس الحصول على آلات تعزز الإبداع والخيال – وهم يريدون ذلك فعلاً – فيجب أن تواجه أبحاث “الذكاء الاصطناعي” و”التعلّم الآلي” الواقع؛ أي أن المسألة لا تعتمد على مدى “ذكائك” أو “معرفتك”، وإنما ترتبط أيضاً بنوع الأمزجة والعواطف التي تطبع قراراتك وتصرفاتك وتواصلك مع الآخرين.

فالفرضية القائلة بأن التكنولوجيا الفائقة الذكاء والتي تمتلك – حرفياً ومجازياً – “عقلها الخاص بها”، لن تكون لديها المشاعر الرقمية النظيرة لمشاعر الخوف والألم والرغبة والفضول والانزعاج والمعنويات والطموح، هي فرضية بحثية يجب إخضاعها للاختبار، وليست خلاصة حتمية أو نتيجة مقررة سلفاً، لأن “المشاعر” و”العواطف” التي قد تكون موجودة لدى هذه العقول قد تكون غريبة عن البشر. لكن ذلك لا يعني أنها غير موجودة أو لن تكون موجودة.

وبالنسبة لأنواع الأشياء التي تريد “آبل”، و”جوجل”، و”فيسبوك”، و”جنرال إلكتريك”، و”أمازون” وبقية الشركات القيام بها في مجال التعلم الآلي – ناهيك عن الأشياء الأخرى التي تشغل بال ماسك، الذي وصف الذكاء الاصطناعي بأنه ينطوي على خطر “أكبر من خطر القنابل النووية” – فإن عواطف الآلة قد تكون أكثر أهمية من “ذكائها”. وبالتالي، فإن النظر إلى الذكاء الاصطناعي بوصفه مجرد “ذكاء” فقط هو أمر غير كافٍ أبداً. ولكي تكون مبادرة الذكاء الاصطناعي التي أطلقها ماسك مؤثرة بحق ولكي تتعامل بفاعلية مع المخاطر الحقيقية للذكاء الاصطناعي، فإنها بحاجة إلى مواجهة هذه الحقيقة.

اقرأ أيضاً: مخاطر الذكاء الاصطناعي

على الرغم من وجود مبالغة هائلة في محاولة الحديث عن قضايا تخص السياسات العامة بطريقة مشابهة لأفلام الخيال العلمي التي تعرض روبوتاً قد يطور نفسه بنفسه ويخرج عن السيطرة ليصبح وحشاً كما هو حال النظام الفائق الذكاء في فلم المُبيد (Terminator)، فإن هناك بعض المخاطر التي تحتاج إلى أن نتأملها ونتدبرها بعقلانية. فوضع سيناريوهات غير سعيدة للاستخدامات المحتملة للتكنولوجيا المعتمدة على الذكاء الاصطناعي لا يحتاج إلى قدرات إبداعية في مجال الخيال العلمي بقدر حاجته إلى عملية استنتاج منطقية.

مخاطر اتخاذ أجهزة الذكاء الاصطناعي للقرارات

لنأخذ، على سبيل المثال، بعض أنواع القرارات التي قد تضطر أجهزة الذكاء الاصطناعي إلى اتخاذها، وهي قرارات وثيقة الصلة بالأخلاق، والتحيّز، والعواطف:

  • تستعمل المشاريع والشركات مزيجاً معقداً من تقنيات تحليل البيانات التنبؤية والتعلم الآلي لمواجهة مجرمي الإنترنت والجواسيس الإلكترونيين، والهجمات الإلكترونية سواء من دول أخرى أو من مجموعات عدائية في أنحاء العالم. وبالتالي، فإن التهديدات الشريرة والمعقدة تتطلب دفاعات أسرع وأقوى. والتكنولوجيات التي تتسم بالسرعة والمرونة والقوة بحاجة إلى استقلال ذاتي دائم لكي تنجح. ولكن ما الذي يحصل عندما تقود التعقيدات المركبة للهجوم والاستجابة إلى “استجابات ذات حصانة ذاتية” تثبت أنها تعاني من خلل وظيفي؟ وما نوع الأدوية الرقمية التي تشفي – أو تعالج – شبكة عالمية مهلوسة تبدأ بإيذاء نفسها؟
  • تتزايد النقاشات الأخلاقية والقانونية المتعلقة بالمركبات شبه المستقلة ذاتياً، مثل السيارات ذاتية القيادة والطائرات بدون طيار وغيرها، حدّة مع تحسن قدرات هذا النوع من المركبات. وعندما يبدو أن الحوادث واقعة لا محالة ولا مفر منها، فهل هذا يعني أن الواجب الأول للتكنولوجيا أن تبذل قصارى جهدها لحماية ركّابها؟ أم أن واجبها تقليل الضرر الشامل الذي قد يصيب البشر إلى الحد الأدنى؟ وإذا ما كان هناك ملصق موجود على السيارة ويحمل عبارة “يوجد طفل رضيع في هذه السيارة” فهل يعني ذلك بأن الآلة يجب أن تغيّر حساباتها؟ إن المركبات “التي تدرك وضعها الراهن” قد لا تسمح لركابها بتخطي قرار المركبة بخصوص من “يستحق” أكبر قدر من الحماية، أو، بدلاً من ذلك، من يجب التضحية به، بحسب ما ترتئيه الخوارزمية التي تشغل هذه المركبة. فما الذي يحصل عندما يكون هناك وببساطة اختلاف في الرأي بين سيارتين عائليتين رباعيتي الدفع – أو طيارتين بدون طيار – على وشك الاصطدام ببعضهما البعض بخصوص الطريقة الفضلى لحماية البشر الموجودين بداخلهما؟
  • مع تنامي الانتشار الواسع لأدوات مراقبة الإنتاجية وآليات تتبّعها، فإن العمال سيجدون وبصورة متزايدة بأن سلوكياتهم تخضع للرصد والتحليل. فخوارزميات التعلم الآلي تحدد الأشخاص الذين يجيدون التعاون معاً، وأي الأفراد يجب أن يظلوا بعيدين عن بعضهم البعض. كما تراقب البرمجيات الموظفين لمعرفة الأشخاص الذين يستجيبون جيداً مع المديح والتشجيع وأي الأشخاص يتحسن أداؤهم بعد التأنيب. كما أن التكنولوجيا وبصورة مشابهة تغيّر و/أو تعدل التواصل بين الأشخاص و/أو الفرق من أجل تقليل خطر الإساءات غير المقصودة أو حالات سوء الفهم. ونجد أيضاً بأن الآلات تولي عناية خاصة لاستبعاد أي تهديد بوجود بيئات عمل تشوبها العدوانية الناجمة عن سلوك البشر؛ فهي تحدد وتسجل الحالات العدوانية الصغيرة وكذلك التصرفات الإنسانية “التي تنطوي على تمييز ضد الآخرين”.
  • تقوم التكنولوجيات أيضاً بتجميع ملفات حول السلوكيات الأكثر إنتاجية والأقل إنتاجية وغير المفيدة، في حين تتولى عملية تحليل البيانات الضخمة إجراء مسح دائم للبيانات من أجل التنبؤ بحالات التهرب من أداء الواجب أو الاحتيال. فهل يمكن للتحيّز أن يتسلل إلى هذه الخوارزميات الذكية والمتعلّمة والتنبؤية؟ وهل هناك طرق مفيدة لنقرّر ما إذا كانت التكنولوجيات الذكية تتلاعب بطريقة غير مناسبة أو حتى مؤذية بالناس الذين من المفروض أن تشرف على عملهم بفاعلية (بأقل تكلفة ممكنة)؟ ومن سيكون مسؤولاً عن الإجابة عن هذه الأسئلة: الناس أم الآلات؟

لا يتعارض أي من هذه السيناريوهات الأربعة مع الأبحاث والتطبيقات الحالية التي تُعنى بالجوانب السلبية للذكاء الاصطناعي وتقنيات تعلم الآلة، ولا يقتصر الخطر (فقط) على احتمال “سيطرة” الآلة على الأوضاع بدلاً من البشر، والذي أعتبره سيناريو جهنمي زيادة عن اللزوم نوعاً ما، ولكن ما يقلقني حقاً هو ما سيحصل عندما يكون للآلات رأي مختلف عن رأينا، أي مشاعر مختلفة عن مشاعرنا.

ليس هناك من باحث عميق التفكير يرغب في أن يرى التأثيرات الرقمية ومخاطر الذكاء الاصطناعي قد وصلت يوماً إلى وضع تصبح معه مصدراً للموت وتدمير العالم. فكتابة فيروس إلكتروني بحماقة هو شيء؛ ولكن كتابة فيروس إلكتروني بحماقة بحيث يكون هذا الفيروس قادراً على كتابه فيروسه الذاتي بحماقة هو شيء مختلف تماماً.

وبالتالي، فإن الأموال الذكية تشير إلى أن أكثر التكنولوجيات الرقمية المستقبلية فعالية يجب أن تمتلك العواطف والمشاعر أيضاً، وهذا الأمر يجب أن يفرض نوعاً جديداً من الوعي الذاتي الإنساني بخصوص مستقبل الوعي الذي ستمتلكه الآلة، وهذا سيكون أمراً جيداً لو حصل لنتجنب مخاطر الذكاء الاصطناعي.

اقرأ أيضاً:

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .