$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#7013 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(7975)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "35.175.174.36"
  ["user_header"]=>
  object(stdClass)#7072 (45) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(143) "/%D9%81%D9%87%D9%85-%D8%A7%D9%84%D9%81%D8%B1%D9%88%D9%82-%D8%A7%D9%84%D9%84%D8%BA%D9%88%D9%8A%D8%A9-%D8%A7%D9%84%D8%AF%D9%82%D9%8A%D9%82%D8%A9/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_HOST"]=>
    string(13) "hbrarabic.com"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_X_FORWARDED_FOR"]=>
    string(13) "35.175.174.36"
    ["HTTP_CF_RAY"]=>
    string(20) "86b95c04a8ad59f2-FRA"
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_REFERER"]=>
    string(163) "https://hbrarabic.com/%D9%81%D9%87%D9%85-%D8%A7%D9%84%D9%81%D8%B1%D9%88%D9%82-%D8%A7%D9%84%D9%84%D8%BA%D9%88%D9%8A%D8%A9-%D8%A7%D9%84%D8%AF%D9%82%D9%8A%D9%82%D8%A9"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "35.175.174.36"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_X_FORWARDED_HOST"]=>
    string(13) "hbrarabic.com"
    ["HTTP_X_FORWARDED_SERVER"]=>
    string(13) "hbrarabic.com"
    ["HTTP_CONNECTION"]=>
    string(10) "Keep-Alive"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(73) "
Apache/2.4.57 (Debian) Server at hbrarabic.com Port 80
" ["SERVER_NAME"]=> string(13) "hbrarabic.com" ["SERVER_ADDR"]=> string(10) "172.21.0.4" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(14) "162.158.87.211" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "51448" ["REDIRECT_URL"]=> string(51) "/فهم-الفروق-اللغوية-الدقيقة/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711647145.774823) ["REQUEST_TIME"]=> int(1711647145) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7073 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7074 (2) { ["content_id"]=> int(7975) ["client_id"]=> string(36) "e2b36148-fa88-11eb-8499-0242ac120007" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

التحدي الكبير التالي أمام الذكاء الاصطناعي: فهم الفروق اللغوية الدقيقة

5 دقائق
تحديات الذكاء الاصطناعي
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

اللغة قدرة فريدة تميز الجنس البشري وتمثل تجلياً لما نتمتع به من ذكاء. بيد أنه من خلال الذكاء الاصطناعي (AI) ـ وعلى وجه التحديد معالجة اللغات الطبيعية (NLP) ـ يمكننا تزويد الآلات بالقدرات اللغوية، ما يفتح عالماً جديداً من الإمكانات حول كيفية تعاملنا مع الآلات مستقبلاً، ولكن ما هي تحديات الذكاء الاصطناعي في هذا المجال؟

لقد صار بإمكانك في الوقت الحالي أن تدخل إلى غرفة مظلمة في منزلك وتطلب من تطبيق أليكسا (Alexa) أن يضيء لك المصابيح الذكية بمعدل إضاءة لطيف قدره 75% فقط مثلاً أو استدعاء معلومات حول ظروف الطقس في الجانب الآخر من الكرة الأرضية آنياً. وقد بدا التقدم الذي أحرزته هذه الصناعة واضحاً وجلياً في العرض التوضيحي الذي قدمته شركة جوجل مؤخراً للمساعد الشخصي الجديد “جوجل دوبلكس” (Duplex)، حيث تمكّن المساعد الذي صمم بتقنية الذكاء الاصطناعي من إجراء مكالمات هاتفية مع الشركات وحجز المواعيد. فما كان في وقت من الأوقات بمنزلة قصص خيال علمي صار الآن حقيقة واقعة. ولكن لخلق علاقة مُرضية بين الإنسان والآلة، يجب أن يكون بمقدور الآلات الدخول في محادثات وحوارات تنم بشكل أكبر عن القدرة البديهية وعن فهم السياق المحيط بهذه المحادثات والحوارات حتى تبدو طبيعية ـ وهذا أمر ما يزال يمثل تحدياً أمام الذكاء الاصطناعي. لقد أمضيت حياتي المهنية في التركيز على معالجة اللغات الطبيعية (NLP)، وهو مجال بحثي قديم قدم الذكاء الاصطناعي نفسه، وما نزال في مرحلة بدايات هذه الرحلة.

اللغة هي آلية لمشاركة المعلومات والتواصل مع من حولنا، لكن الآلات تحتاج إلى فهم تعقيدات اللغة وكيفية تواصلنا نحن البشر من أجل الاستفادة منها. إنّ ما تم إحرازه من تقدم في تحليل المشاعر، والإجابة عن الأسئلة، والتعلم المشترك متعدد المهام يجعل من الممكن بالنسبة للذكاء الاصطناعي أن يفهم البشر والطريقة التي يتواصلون بها فهماً حقيقياً.

تحليل المشاعر

اللغة صعبة بطبيعتها فهي دائمة التطور؛ كما إنها تتسم بفروقها بالغة الدقة، وتتطلب إجادتها وإتقانها سنين كثيرة من جانب الشخص العادي. ومع تحليل المشاعر، يمكننا استخدام الذكاء الاصطناعي لفهم أشياء معينة حول عبارة محددة، حول ما إذا كانت الإشارة إلى علامة تجارية معينة أو المراجعة النقدية لفيلم سينمائي معين، إيجابية أم سلبية أم محايدة. بيد أننا نستطيع أيضاً استكشاف أشياء من قبيل موقف ونوايا المتكلم (هل هو غاضب أم سعيد أم مندهش أم مستعد للشراء؟). بدءاً من خدمة العملاء وانتهاء بإدارة مجموعة أو منتدى عبر الإنترنت إلى التداول الخوارزمي، من المفيد إلى أقصى حد بالنسبة للأنشطة والمشاريع التجارية أن تكون قادرة على فهم الشعور العام تجاه العلامة التجارية من خلال تحليل آلاف التغريدات أو مئات من مراجعات المنتجات في آن واحد.

كان تحليل المشاعر قائماً منذ فترة كبيرة، بيد أنه لم يكن دائماً دقيقاً جداً. ومع ذلك، فإنّ هذا آخذ في التغيّر مع التقدم في معالجة اللغات الطبيعية (NLP). في شركة سيلز فورس (Salesforce) التي أعمل بها في منصب كبير العلماء، تتيح خدمات آينشتاين للذكاء الاصطناعي (Einstein AI) للعلامات التجارية الحصول على تحليل فوري للمشاعر في رسائل البريد الإلكتروني، ووسائل التواصل الاجتماعي، ونصوص الدردشة، من أجل تقديم تجارب أفضل للعملاء.  يتيح تحليل المشاعر الدقيقة، على سبيل المثال، لمندوبي تقديم الخدمات تحديد العملاء ممن لديهم شكاوى للبدء بمساعدتهم على حل مشكلاتهم، أو التعرف على العملاء الذين يمكن تقديم عروض ترويجية لهم. كما إنه من الممكن تحديد عيوب المنتج، وقياس مستوى الرضا الإجمالي عنه، بل وحتى مراقبة ما تحققه العلامة التجارية من قبول عبر قنوات التواصل الاجتماعي المختلفة. وهناك شركات تقنية أخرى تقدم خدمات مثيلة.

كما إننا نحتاج إلى السياق لضمان دقة النتائج. لنفترض أنّ لديك مشروعاً لصناعة الصابون وبيعه، وكتب أحد الذين استخدموا المنتج تغريدة قال فيها: “هذا الصابون رائع حقاً للأطفال الرضع”. يمكن النظر إلى هذه التغريدة كتأييد إيجابي لاستخدامه للأطفال، كما قد توحي بشكل ساخر وتهكمي أنه سيء للأطفال. تنطوي هذه العبارة، على الرغم من أنها قصيرة نوعاً ما، على معاني سياقية كثيرة للغاية! إنّ من أكبر التحديات في بحوث معالجة اللغات الطبيعية هو تعليم الذكاء الاصطناعي تحليل كل المعاني الممكنة لبنية الجملة، وفهم المعنى الذي يقصده هذا الشخص أو ذاك في سياق معين. إذ يتطلب ذلك توفر كل من البيانات ذات العلامات لتحسين التدريب النموذجي بالإضافة إلى النماذج الجديدة التي يمكن من خلالها التعرف على السياق ومشاركة المعرفة عبر العديد من أنواع المهام المختلفة في وقت واحد.

الإجابة عن الأسئلة

كلما تحسنت قدرة معالجة اللغات الطبيعية (NLP) على تحليل معنى النص، تحسن معها ذكاء المساعدات الرقمية (Digital Assistants) التي تساعدنا على إدارة حياتنا.  فتطبيقات مثل سيري (Siri) ومساعد جوجل تقوم بالفعل بتوفير إجابات جيدة جداً للأسئلة الشائعة، كما تنجح في تنفيذ الأوامر البسيطة نوعاً ما. ولكن الوضع الأمثل هو أن يكون باستطاعتنا أن نسأل أجهزة الكمبيوتر لدينا أسئلة عشوائية ويظل بإمكانها أن تعطينا إجابات جيدة عن هذه الأسئلة.

من بين الطرق التي تسهم في توفير إجابات أفضل التأكد من فهم الكمبيوتر للسؤال المطروح عليه. فعلى سبيل المثال، إذا سألت الكمبيوتر قائلاً: “متى يأتي رمضان؟” كيف سيعرف الكمبيوتر ما إذا كنت تقصد بكلمة (رمضان) شهر الصيام أم شخص يدعى رمضان؟ لقد تحسنت قدرات أجهزة الكمبيوتر على تخمين المعاني التي نقصدها من خلال فهم أعمق لعلم دلالات الألفاظ، بالإضافة إلى استخدام البيانات السياقية استخداماً أكثر ذكاء. إننا نكتشف من خلال معالجة اللغات الطبيعية (NLP) كيفية تعلم كل طبقة من طبقات السياق بحيث يستطيع الذكاء الاصطناعي معالجة كل تلك الطبقات دفعة واحدة وعدم فقد المعلومات الحيوية.

على سبيل المثال، تستطيع شبكات الانتباه ثنائي الاتجاه الديناميكي (Dynamic Coattention Networks) أن تفسر مستنداً واحداً تفسيراً مختلفاً بناء على الأسئلة المختلفة التي تُطرح، مثل “ما هي الفرق التي مثلت العرب في كأس القارات لكرة القدم في عام 2005 أو “من الذي أحرز الهدف الأول في  نهائي بطولة كأس القارات عام 2005؟”  مع هذا التفسير المشروط للأسئلة، يمكن في هذه الحالة لتقنية معالجة اللغات الطبيعية افتراض عدة إجابات بشكل متكرر من أجل الوصول إلى أفضل النتائج وأكثرها دقة.

التعلم المشترك متعدد المهام

يتميز المجتمع العلمي بقدرته الجيدة على بناء نماذج الذكاء الاصطناعي التي تؤدي مهمة واحدة بشكل جيد للغاية. بيد أنّ الواجهات البينية الأكثر بديهية وحوارية وسياقية، سوف تتطلب نموذجاً من الذكاء الاصطناعي يتعلم باستمرار، أي يدمج المهام الجديدة مع المهام القديمة، ويتعلم من أجل أداء مهام أكثر تعقيداً على الدوام في هذه العملية. وينطبق هذا تماماً على الذكاء الاصطناعي بوجه عام، إلا أنه ينطبق على وجه الخصوص عندما يتعلق الأمر باللغة، والتي يتطلب التعامل معها قدراً هائلاً من المرونة.

فعلى سبيل المثال، السؤال “من هم عملائي؟” هو سؤال غاية في البساطة، فهو يطلب إنشاء قائمة بالعملاء. ولكن ماذا عن سؤال “من هم أفضل العملاء في المنطقة الشرقية بالمملكة العربية السعودية بالنسبة لمنتج معين؟” لقد أضفنا الآن إلى هذا السؤال طبقة أخرى من التعقيد تتطلب عدداً من المهام المتكاملة للإجابة عن الأسئلة المؤهّلة من قبيل: كيف نفسر كلمة “أفضل” هنا وعلى أي أساس نحدد الأفضلية؟ أين يوجد كل عميل من هؤلاء العملاء؟ ما العوامل التي تسهم في جذب اهتمام أحد العملاء لمنتج معين مقارنة بمنتج آخر؟ وهكذا، كلما أضفنا عنصراً جديداً إلى السؤال ازداد تعقيد السؤال زيادة كبيرة وهائلة.

قامت وحدة الأبحاث في شركة سيلز فورس مؤخراً بإنشاء ما يُسمى نموذج المهام العشر للّغة الطبيعية (Natural Language Decathlon)، وهو التحدي الذي يعزز قدرة الإجابة عن الأسئلة لمعالجة 10 من أصعب المهام في معالجة اللغات الطبيعية ضمن نموذج واحد، وهي كالتالي: الإجابة عن الأسئلة، والترجمة الآلية، والتلخيص، واستنتاج اللغة الطبيعية، وتحليل المشاعر، ووضع العلامات الدلالية، واستنباط العلاقات، والحوار الموجه نحو الهدف، وإنشاء الاستعلامات من قواعد البيانات، وتحديد الضمائر. باستخدام نموذج الإجابة عن الأسئلة متعددة المهام التي تجعل كل مهمة بمنزلة شكل من أشكال الإجابة عن الأسئلة، يقوم النموذج الواحد بشكل مشترك بتعلم المهام المختلفة ومعالجتها دون استعمال أي متغيرات أو وحدات نمطية. ولا يعني هذا أنّ علماء البيانات لم يعودوا بحاجة إلى بناء نماذج فردية وتدريبها وتحسينها لكل مهمة فحسب، إنما يعني أيضاً أن النموذج ستتوفر به قدره مطلقة على التعلم، أو بمعنى آخر يستطيع النموذج أن يعالج المهام التي لم يرها  أو لم يقم بها من قبل على الإطلاق، والتي لم يتم تدريبه عليها خصيصاً مطلقاً.

مع استمرار الباحثين في جهودهم لتحسين نماذج مثل تلك، سوف نرى واجهات الذكاء الاصطناعي أكثر ذكاء عند اضطلاعها بمهام أكثر تعقيداً.

وعلى الرغم من أننا عملنا في مجال معالجة اللغات الطبيعية (NLP) لفترة طويلة، إلا أننا ما نزال في بداية رحلة تحديات الذكاء الاصطناعي. ولكننا نأمل بأن يؤدي تَحسّن معالجة اللغات الطبيعية إلى إتاحة الفرصة للذكاء الاصطناعي لتغيير كل شيء يخص طريقة تفاعلنا مع الآلات والأجهزة.

اقرأ أيضاً:

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

Content is protected !!