3 طرق تجعل الذكاء الاصطناعي قابلاً لاكتساب ميزات عاطفية

4 دقائق
المشاعر العاطفية والذكاء الاصطناعي

في يناير/كانون الثاني من عام 2018، أعلنت أنيتا زيمرمان؛ نائبة رئيس قسم الأبحاث في شركة غارتنرظ الأميركية عن اكتساب الذكاء الاصطناعي للميزات العاطفية قائلة: "بحلول عام 2022، سيعرف جهازك الشخصي حالتك العاطفية أكثر من عائلتك". وبعد شهرين فقط، زعمت دراسة بارزة أجرتها جامعة أوهايو الأميركية أن خوارزمياتها كانت أفضل حينئذ في اكتشاف المشاعر أكثر من الأشخاص.

المشاعر البشرية وأنظمة الذكاء الاصطناعي

ستتمكن أنظمة وأجهزة الذكاء الاصطناعي من التعرف على المشاعر البشرية وتفسيرها ومعالجتها ومحاكاتها. ويمكن لمزيج من تحليل الوجه وتحليل نمط الصوت والتعلم العميق أن يفك تشفير المشاعر البشرية لأغراض أبحاث السوق والاستطلاعات السياسية. ومن خلال شركات مثل "أفكتيفا" (Affectiva) و"بيوند فيربال" (BeyondVerbal) و"سينساي" (Sensay)، التي توفر جميعها برمجيات تحليل المشاعر، من المقدر أن تنمو قيمة سوق الحوسبة إلى 41 مليار دولار أميركي بحلول عام 2022؛ إذ تسارع شركات مثل أمازون وجوجل وفيسبوك وآبل لفك شفرات مشاعر مستخدميها.

وستخلق هذه المدخلات العاطفية تحولاً من التفاعلات الضخمة لحاصل الذكاء القائمة على البيانات، إلى تجارب عميقة قائمة على الذكاء العاطفي؛ وهو ما يتيح للعلامات التجارية فرصة التواصل مع العملاء على مستوى أعمق وأكثر خصوصية. لكن قراءة مشاعر الناس تُعد عملاً دقيقاً؛ فالمشاعر لها خصوصية شديدة، وستكون هناك مخاوف لدى المستخدمين من اختراق خصوصياتهم والتلاعب بها. وقبل أن تخوض الشركات في هذا الأمر، يجب على رؤساء هذه الشركات التفكير في أسئلة مثل:

1- ما الذي تقدمه؟ وهل قيمة ما تقدمه تفسح المجال لمشاركة مشاعر المستخدمين بشكل طبيعي؟ وهل يمكنك أن تبرر مشاركة الإشارات العاطفية لتحسين تجربة المستخدم؟

  1. ما النوايا العاطفية لعملائك عند التفاعل مع علامتك التجارية؟ وما طبيعة هذا التفاعل؟
  2. هل منحك المستخدم إذناً صريحاً لتحليل مشاعره؟ وهل يظل المستخدم متحكماً في بياناته؟ وهل يمكنه إلغاء موافقته في أي وقت؟
  3. هل نظامك ذكي بما يكفي لقراءة مشاعر المستخدم والتفاعل معها بدقة؟
  4. ما هي مخاطر فشل هذا النظام في أي حالة معينة، سواء المخاطر على المستخدم و/أو المخاطر على العلامة التجارية؟

أنظمة الذكاء الاصطناعي للتحليل العاطفي

وبأخذ هذه المخاوف في الاعتبار، يجب أن يكون قادة الأعمال على دراية بالتطبيقات الحالية للذكاء الاصطناعي العاطفي، وهي تنقسم تقريباً إلى ثلاث فئات:

الأنظمة التي تستخدم التحليل العاطفي لتعديل استجابتها

في هذا التطبيق، تتعرف خدمات الذكاء الاصطناعي على المشاعر وتضعها في الحسبان خلال عملية صنع القرار الخاصة بها. ومع ذلك، يكون ناتج هذه الخدمة خالياً تماماً من المشاعر.

تتعهد أنظمة الاستجابة الصوتية التفاعلية والدردشة الآلية بتوجيه العملاء إلى الخدمة الصحيحة بشكل أسرع وأكثر دقة عند وضع المشاعر في الاعتبار. على سبيل المثال، عندما يكتشف النظام أن المستخدم غاضب، يجري توجيهه إلى اتجاه مختلف لتصعيد الأمر، أو إلى إنسان.

وتتسابق شركات "أوتو إيموتيف" (AutoEmotive) و"أفكتيفا" و"فورد" الأميركية للحصول على برمجيات جاهزة للسوق لتحليل المشاعر في السيارات بغرض اكتشاف المشاعر البشرية مثل الغضب أو عدم الانتباه، ومن ثم السيطرة على السيارة أو إيقافها؛ وهو ما يمنع وقوع حوادث السير أو أي تصرفات غاضبة على الطرق.

ويلجأ قطاع الأمن أيضاً إلى الذكاء الاصطناعي العاطفي للكشف عن الأشخاص المتوترين والغاضبين. على سبيل المثال، تراقب الحكومة البريطانية مشاعر مواطنيها تجاه موضوعات معينة على وسائل التواصل الاجتماعي.

في هذه الفئة، تلعب المشاعر دوراً في عملية صنع القرار بالآلة. ومع ذلك، لا تزال الآلة تتفاعل كآلة، أو كلوحة مفاتيح عملاقة توجه الأشخاص إلى الاتجاه الصحيح.

الأنظمة التي تقدم تحليلاً عاطفياً مستهدفاً لأغراض التعلم

تعاونت شركة "فيليبس" في عام 2009 مع بنك هولندي لتطوير فكرة سوار "ذكي" لمنع المستثمرين عبر الإنترنت من اتخاذ قرارات غير منطقية من خلال مراقبة مستويات التوتر لديهم، والتي يقيسها السوار بمراقبة نبض الشخص الذي يرتديه. ومساعدة المستثمرين عبر الإنترنت في أن يكونوا على دراية بحالاتهم العاطفية المرتفعة جعلتهم يتوقفون قليلاً ويفكرون قبل اتخاذ قرارات متسرعة.

وتساعد النظارات الذكية الخاصة بشركة "برين باور" (Brain Power) الأشخاص الذين يعانون من التوحد في فهم المشاعر والإشارات الاجتماعية بشكل أفضل. يرى الشخص الذي يرتدي هذا الجهاز - الذي يشبه نظارة جوجل - ويسمع رد فعل خاصاً بكل موقف - على سبيل المثال، التدريب على تعبيرات الوجه عن المشاعر، ومتى ينظر إلى الأشخاص، وحتى ردود الأفعال تجاه الحالة العاطفية للمستخدم.

تتعرف أنظمة التحليل العاطفي المستهدفة تلك على المشاعر وتفسرها، وتُنقل هذه الأفكار إلى المستخدم لأغراض التعلم. وعلى مستوى شخصي، ستعمل هذه التطبيقات المستهدفة، مثل تطبيق "فيتبيت" (Fitbit)، لصالح القلب والعقل معاً، والمساعدة في منح التركيز الكامل للذهن وتحسين الوعي الذاتي وتطوير الذات في نهاية المطاف، مع الحفاظ على علاقة الآلة بالمستخدم التي تبقيه مسؤولاً عن مشاعره.

كما يجري اختبار أنظمة التعلم العاطفية المستهدفة في المجموعات، مثل تحليل مشاعر الطلاب تجاه المعلمين، أو مشاعر العاملين تجاه المدراء. ويمكن أن يترك تحليل المشاعر على صعيد المجموعات انطباعاً سلبياً: تكون هناك مخاوف بشأن الخصوصية والإبداع والفردية؛ إذ تلعب هذه التجارب على وتر القبول الأخلاقي. والأهم من ذلك، أن هناك حاجة إلى التدريب النفسي المناسب لذوي السلطة لتفسير النتائج العاطفية وإجراء تعديلات مناسبة.

الأنظمة التي تحاكي وتحل محل التفاعلات بين البشر

عندما دخلت السماعات الذكية غرفة المعيشة في البيوت الأميركية عام 2014، بدأنا في التعود على سماع أجهزة الحاسوب وهي تشير إلى نفسها بـ (أنا). أطلق عليه خطأ بشرياً أو اختصاراً تطورياً، لكن عندما تتحدث الآلات، يفترض الأشخاص أنهم على علاقة بها.

توجد الآن منتجات وخدمات تستخدم واجهات المستخدم التحاورية ومفهوم "اعتبار أجهزة الحاسوب كجهات فاعلة اجتماعية" لمحاولة التخفيف من حدة المخاوف المتعلقة بالصحة النفسية. وتهدف هذه التطبيقات إلى تدريب المستخدمين خلال الأزمات باستخدام تقنيات من العلاج السلوكي. يساعد معالج بالذكاء الاصطناعي يُدعى إيلي (Ellie) في علاج الجنود الذين يعانون من اضطراب ما بعد الصدمة، في حين يساعد معالج آخر يُدعى "كريم" اللاجئين السوريين في التغلب على الصدمات التي تعرضوها لها، بل يجري تكليف المساعدين الرقميين بالمساعدة في التخفيف من حدة الشعور بالوحدة لدى كبار السن.

وتستخدم التطبيقات العرضية الأخرى - مثل تطبيق (XiaoIce) من مايكروسوفت أو "مساعد جوجل" أو تطبيق أليكسا من أمازون - الإشارات الاجتماعية والعاطفية لغرض آخر؛ إذ تهدف إلى ضمان ولاء المستخدمين من خلال التصرف كأصدقاء مقربين لهم ولكن بتقنية الذكاء الاصطناعي. ويقول عالم المستقبليات الهولندي ريتشارد فان هويدجدونك ساخراً: "إذا استطاع أحد المسوّقين أن يجعلك تبكي؛ فإنه يمكنه أن يجعلك تشتري".

بدأ النقاش حول التقنية الإدمانية في فحص الأهداف وراء خدمات المساعدة الصوتية. ماذا يعني الأمر بالنسبة للمستخدمين إذا انجذبت خدمات المساعدة الصوتية بشدة إلى المعلنين؟ وفي مذكرة مسربة من فيسبوك، على سبيل المثال، تفاخرت شركة التواصل الاجتماعي أمام المعلنين بأنها يمكنها اكتشاف ومن ثم استهداف مشاعر المراهقين بعدم الجدوى وعدم الأمان، من بين المشاعر الأخرى.

وقالت جوديث ماستوف؛ الأستاذة بجامعة أبردين: "أود أن يكون لدى الأشخاص ملاكهم الحارس الخاص الذي يمكنه دعمهم عاطفياً طوال اليوم". ولكن للوصول إلى هذا الحل المثالي، ستحتاج سلسلة من التجارب (المتفق عليها بالإجماع) إلى توجيه المصممين والعلامات التجارية نحو المستوى المناسب من العلاقة الودودة، وستحدد سلسلة من الإخفاقات قواعد الحفاظ على الثقة والخصوصية والحدود العاطفية.

قد لا يكون أكبر عائق أمام اكتساب الذكاء الاصطناعي للميزات العاطفية وإيجاد التوازن الصحيح هو تحقيق أشكال أكثر فعالية من الذكاء الاصطناعي العاطفي، بل هو إيجاد الأشخاص الأذكياء عاطفياً لبناء هذه الأشكال.

اقرأ أيضاً:

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

المحتوى محمي