$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#7016 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(9051)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "44.222.249.19"
  ["user_header"]=>
  object(stdClass)#7074 (45) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(142) "/%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%88%D8%A7%D9%84%D8%AA%D9%88%D8%B8%D9%8A%D9%81/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_HOST"]=>
    string(13) "hbrarabic.com"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_X_FORWARDED_FOR"]=>
    string(13) "44.222.249.19"
    ["HTTP_CF_RAY"]=>
    string(20) "86bb536b5b8920b2-FRA"
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_REFERER"]=>
    string(30) "https://hbrarabic.com/?p=99010"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "44.222.249.19"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_X_FORWARDED_HOST"]=>
    string(13) "hbrarabic.com"
    ["HTTP_X_FORWARDED_SERVER"]=>
    string(13) "hbrarabic.com"
    ["HTTP_CONNECTION"]=>
    string(10) "Keep-Alive"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(73) "
Apache/2.4.57 (Debian) Server at hbrarabic.com Port 80
" ["SERVER_NAME"]=> string(13) "hbrarabic.com" ["SERVER_ADDR"]=> string(10) "172.21.0.4" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(13) "162.158.87.58" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "51534" ["REDIRECT_URL"]=> string(50) "/الذكاء-الاصطناعي-والتوظيف/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711667765.085908) ["REQUEST_TIME"]=> int(1711667765) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7075 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7076 (2) { ["content_id"]=> int(9051) ["client_id"]=> string(36) "e2b36148-fa88-11eb-8499-0242ac120007" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

الآثار القانونية والأخلاقية لاستخدام الذكاء الاصطناعي في التوظيف

8 دقائق
آثار الذكاء الاصطناعي في التوظيف
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

أثمرت الابتكارات والتطورات الرقمية في مجال الذكاء الاصطناعي مجموعة من الأدوات لتحديد المواهب الجديدة وتقييمها. وتعد العديد من هذه التقنيات بمساعدة المؤسسات في تحسين قدرتها في العثور على الشخص المناسب للوظيفة المناسبة، وإبعاد الشخص غير المناسب عن الوظيفة غير المناسبة بشكل أسرع وأرخص من أي وقت مضى، فما هي آثار استخدام الذكاء الاصطناعي في مجال التوظيف؟

تمنح هذه الأدوات سلطة غير مسبوقة للمؤسسات في سعيها لاتخاذ قرارات حول رأس المال البشري استناداً إلى البيانات. كما تمتلك الأدوات القدرة على تقديم الملاحظات من خلال منح الملايين من المرشحين للوظائف رؤى ثاقبة تعتمد على بيانات حول نقاط قوتهم واحتياجاتهم الإنمائية والمسار المهني المحتمل والملائمة التنظيمية. وقد شهدنا على وجه الخصوص النمو السريع للتقييمات القائمة على الألعاب، وبرمجيات تحليل منشورات وسائل التواصل الاجتماعي والتحليل اللغوي لعينات كتابات المرشحين والمقابلات القائمة على الفيديو التي تستخدم الخوارزميات لتحليل محتوى الكلام ونغمة الصوت والحالات العاطفية والسلوكيات غير اللفظية والأدلة المزاجية، بالإضافة إلى رؤوس الأموال الاستثمارية للمشاريع المماثلة.

وفي حين زعزعة الأدوات الجديدة هذه لعملية التوظيف ومساحة التقييم، إلا أنها تترك العديد من الأسئلة غير المجابة حول دقتها والآثار الأخلاقية والقانونية التي قد تسفر عنها، بالإضافة إلى آثارها على الخصوصية.  وينطبق هذا بصفة خاصة عند مقارنة هذه الأدوات بالتقييمات النفسية الأقدم مثل مقياس “العصبية والانبساط والانفتاح واختبار سمات الشخصية المنقح” (NEO-PI-R) أو “اختبار وندرليك” (The Wonderlic Test) أو “اختبار مصفوفات ريفين المتتابعة” (Ravens Progressric Matrices) أو “نموذج هوجان لتحليل الشخصية” (Hogan Personality). إذ استُنبطت جميع هذه التقييمات عبر وسائل عملية وجرى التحقق من صحتها مقابل الوظائف ذات الصلة عبر تحديد الارتباطات الموثوقة بين نتائج المتقدمين وأدائهم الوظيفي اللاحق، وتنشر أدلة هذا التقييمات في مجلات علمية مستقلة وجديرة بالثقة.  وبرز مؤخراً اهتمام وقلق في مجلس الشيوخ الأميركي حول ما إذا كان للتقنيات الجديدة آثار سلبية على تكافؤ الفرص بين المرشحين للوظائف.

تداعيات استخدام الذكاء الاصطناعي على خصوصية المرشحين للوظائف

ونركز في هذه المقالة على التداعيات المحتملة للتقنيات الجديدة على خصوصية المرشحين للوظائف، والآثار المترتبة على حماية المرشحين بموجب قانون الأميركيين ذوي الإعاقة وقوانين التوظيف الفيدرالية والولايات الأخرى. يدرك أرباب العمل عدم وجوب طرح أسئلة على المرشحين حول وضعهم العائلي أو ميولهم السياسية، أو إذا كانت مرشحة ما حاملاً، أو حول أحاسيسهم بالحزن أو بالوحدة أو بالاكتئاب، أو إصاباتهم البدنية أو العقلية، أو عدد ساعات نومهم. ومع ذلك، قد تكون التقنيات الحديثة قادرة بالفعل على تمييز العديد من هذه العوامل بشكل غير مباشر ودون موافقة كافية من المرشح، أو دون موافقته على الإطلاق.

وقبل الخوض في الغموض الحالي للعالم الجديد والشجاع من قياس ملائمة المرشحين للوظائف وتقييمهم، من المفيد أن نلقي نظرة على الماضي. استُخدمت التقييمات النفسية لأكثر من 100 عام، وأصبحت تستخدم على نطاق واسع نتيجة اختبار يدعى ألفا (Army Alpha) الذي طُبّق على القوات العسكرية في الولايات المتحدة، والذي صنّف المجندين في فئات وحدّد احتمال نجاحهم في أدوار مختلفة. أما تقليدياً، يندرج القياس النفسي في ثلاث فئات رئيسية ألا وهي القدرة المعرفية أو الذكاء والشخصية أو الحالة المزاجية والصحة العقلية أو التشخيص السريري.

ويُحظر على أصحاب العمل عموماً الاستفسار عن قضايا تتعلق بالإعاقة الجسدية أو الصحة العقلية أو التشخيص السريري أو استخدام هذه القضايا كعامل في تقييمات المرشحين ما قبل التوظيف. وقد سرى هذا القرار منذ اعتماد قانون الأميركيين ذوي الإعاقة (ADA) في عام 1990، وقد جرى مقاضاة الشركات التي اعتبرت هذه القضايا عاملاً مهماً في قرار التوظيف ووُجه اللوم إليها. تُعتبر الإعاقات معلومات “خاصة” لا يمكن لأصحاب العمل الاستفسار عنها في مرحلة ما قبل التوظيف سواء كانت جسدية أو عقلية، تماماً كما لا يجدر على أرباب العمل طرح أسئلة تدخلية عن حياة المتقدمين الخاصة، أو وضع المعلومات الديموغرافية الخاصة في الاعتبار في قرارات التوظيف.

وقد وُجد أن القدرة المعرفية واختبارات الذكاء تُعتبر مؤشراً موثوقاً وصالحاً للنجاح الوظيفي في مجموعة واسعة من المهن. ومع ذلك، قد تكون هذه الأنواع من التقييمات تمييزية إذا كانت تؤثر سلباً على مجموعات معينة محمية، مثل تلك المجموعات المحددة حسب النوع الاجتماعي أو العرق أو العمر أو الأصل القومي. وفي حال استخدم صاحب العمل تقييماُ ما وُجد أنه يسبب هذا التأثير الضار من خلال الدرجات النسبية لمختلف المجموعات المحمية، يجب على صاحب العمل إثبات أن منهجية التقييم مرتبطة بالوظيفة وأنها تتنبأ بالنجاح في الوظائف المعنية.

ومن غير المرجح أن تعرّض تقييمات الشخصية أرباب العمل لمسؤولية محتملة عن التمييز، حيث لا يوجد ارتباط يذكر بين خصائص الشخصية والمتغيرات الديموغرافية المحمية أو الإعاقات. وتجدر الإشارة أيضاً إلى أن العلاقة بين الشخصية والأداء الوظيفي تعتمد على السياق، مثل نوع المنصب أو الوظيفة.

ولسوء الحظ، لا تتوفّر الكثير من المعلومات حول الجيل الجديد من أدوات المواهب التي تُستخدم بشكل متزايد في تقييم ما قبل التوظيف. إذ برزت العديد من هذه الأدوات بوصفها ابتكارات تكنولوجية، بدلاً من أساليب أو برامج بحثية مستنبطة علمياً.  نتيجة لذلك، لا تكون الجوانب التي تقيّمها هذه الأدوات واضحة دائماً، بغض النظر عن صحة فرضياتها الأساسية، ومن غير الواضح أيضاً سبب اعتبارها أدوات فعالة في توقع أداء المرشحين للوظائف.

على سبيل المثال، رُبطت الخواص الفيزيائية للكلام والصوت البشري بالاختلافات الفردية في الأداء الوظيفي، بعد أن ارتبطت منذ وقت طويل بعناصر الشخصية.  إذا أظهرت إحدى الأدوات تفضيلاً لأنماط الكلام، مثل الإيقاع الصوتي الثابت أو حدة الصوت أو نغمة الصوت “الودية”، دون أن يكون لها تأثير سلبي على المرشحين للوظائف في مجموعة محمية قانونياً، فلا توجد مشكلة قانونية. لكن قد يكون من الصعب التحقق من صحة هذه الأدوات بشكل علمي، وقد لا تراعي الأدوات الآثار السلبية التمييزية المحتملة، بمعنى أن صاحب العمل قد يتحمل مسؤولية أي اعتماد أعمى.  بالإضافة إلى ذلك، لا توجد حتى الآن فرضيات مقنعة أو استنتاجات يمكن الدفاع عنها حول ما إذا كان من الأخلاقي تصنيف الأشخاص استناداً إلى أصواتهم، التي تُدرج ضمن الجوانب الفسيولوجية وتُعتبر صفات شخصية غير قابلة للتغيير إلى حد كبير.

وبالمثل، وُجد أن نشاط الوسائط الاجتماعية مثل استخدام فيسبوك أو تويتر يعكس ذكاء الأشخاص وشخصياتهم، بما في ذلك سمات الجانب المظلم من شخصياتهم.  ولكن هل من الأخلاقي التنقيب عن هذه البيانات لأغراض التوظيف عندما يكون المستخدمون قد استخدموا هذه التطبيقات لأغراض مختلفة بشكل عام، وعند عدم موافقتهم على تحليل البيانات لاستخلاص استنتاجات خاصة من منشوراتهم العامة؟

الأسئلة الأخلاقية لاستخدام الذكاء الاصطناعي في عملية التوظيف

تثير التقنيات الحديثة عدداً من الأسئلة الأخلاقية والقانونية الجديدة حول الخصوصية عند استخدامها في سياق التوظيف، ونعتقد أنه من الواجب البحث في هذه الأسئلة ومناقشتها علناً.

1) ما هي الإغراءات التي ستواجهها الشركات فيما يتعلق بخصوصية المرشح المرتبطة بسماته الشخصية؟

ستبقى تقنيات البيانات الكبيرة والذكاء الاصطناعي قادرة على تحديد متغيرات وكيلة للسمات الخاصة والشخصية بدقة أكبر مع تطور التكنولوجيا، على سبيل المثال، يمكن اليوم استخدام “الإعجابات” على فيسبوك لاستنتاج الميول إلى الآخر والعرق بدقة كبيرة. ومن السهل تحديد الانتماءات السياسية والمعتقدات الدينية. هل يمكن أن تجنح الشركات إلى استخدام أدوات مثل هذه لفرز المرشحين، باعتبار أن القرارات لا تُتخذ مباشرة بناء على الخصائص المحمية التي لا تكون قابلة للتنفيذ من الناحية القانونية؟  على الرغم من أن صاحب العمل قد لا ينتهك أي قوانين بمجرد تمييز المعلومات الشخصية لمقدم الطلب، إلا أن الشركة قد تصبح عرضة لإجراءات قانونية إذا اتخذت قرارات توظيف سلبية من خلال الاعتماد على أي فئات محمية مثل مكان الميلاد أو العرق أو اللغة الأم، أو بناء على المعلومات الخاصة التي لا يحق أخذها في الاعتبار، مثل المرض الجسدي المحتمل أو المرض العقلي.  ومن غير الواضح كيفية تعامل المحاكم مع المواقف التي يعتمد فيها أصحاب العمل على الأدوات التي تستخدم متغيرات الوكيل هذه، ولكن تظل الحقيقة أنه من غير القانوني اتخاذ إجراء سلبي استناداً إلى بعض الخصائص المحمية أو الخاصة، بغض النظر عن كيفية إدراكها أو استنتاجها.

وقد ينطبق هذا أيضاً على برنامج التعرف على الوجه، حيث تتنبأ الأبحاث الحديثة بأن الذكاء الاصطناعي القادر على تمييز الوجه قد يكون قادراً قريباً على تمييز التوجهات السياسية للمرشحين وميولهم العاطفية وكذلك “الحالات الداخلية” مثل المزاج أو العواطف بدرجة عالية من الدقة. كيف يمكن أن يتغير تطبيق قانون الأميركيين ذوي الإعاقة؟ يحظر قانون “حماية الموظف من اختبارات الكشف عن الكذب” أرباب العمل من استخدام اختبارات الكشف عن الكذب كأداة فرز ما قبل التوظيف عموماً، كما يحظر “قانون عدم التمييز على أساس المعلومات الوراثية” أرباب العمل من استخدام المعلومات الوراثية في قرارات التوظيف. ولكن ماذا لو أمكن تحديد نفس النوع من المعلومات حول الحقيقة أو الكذب أو السمات الجينية بواسطة الأدوات التكنولوجية المذكورة أعلاه؟

2) ما هي الإغراءات التي ستواجهها الشركات فيما يتعلق بخصوصية المرشح المرتبطة بنمط الحياة والأنشطة؟

يمكن لأصحاب العمل الآن الوصول بسهولة إلى معلومات عبر الإنترنت، مثل موعد زيارة أحد المرشحين للسوبر ماركت صباح كل يوم أحد، وتقييم مرشح آخر لمرفق رعاية المصابين بالخرف الذي يقيم والديه المسنين فيه، ودعوى طلاق مرشح ثالث في محكمة مدنية.  ومن السهل اكتشاف كل هذه الأشياء وغيرها في العصر الرقمي، إذ تتابعنا البيانات الكبيرة في كل مكان نذهب إليه عبر الإنترنت، وتعمل على جمع وتجميع المعلومات التي يمكن إعادة تنظيمها بواسطة أدوات لا يمكننا تخيلها حتى، وهي أدوات يمكن أن تثري أصحاب العمل في المستقبل بمعلومات حول ملائمتنا (أو عدم ملائمتنا) لمناصب معينة.  والبيانات الكبيرة آخذة في الازدياد فقط، إذ تولّدت 90% من البيانات في العالم خلال العامين الماضيين فقط، وفقاً للخبراء.  ومع التوسع في البيانات يأتي التوسع المحتمل لسوء الاستخدام والتمييز الناتج عنه، سواء عن قصد أو عن غير قصد.

تعتمد الولايات المتحدة على نهج خصوصية مركّب يقوده قانون الولاية إلى حد كبير، بخلاف الاتحاد الأوروبي الذي عمل على موائمة نهج الخصوصية لديه بموجب التشريعات العامة لحماية البيانات (GDPR).  وفيما يتعلق بالوسائط الاجتماعية بصفة خاصة، بدأت الولايات في سن تشريعات مرة أخرى في عام 2012 لمنع أصحاب العمل من طلب كلمات مرور حسابات الإنترنت الشخصية للمرشحين كشرط للتوظيف.  وسنّت أكثر من عشرين ولاية هذه الأنواع من القوانين التي تنطبق على أصحاب العمل.  ومع ذلك، كان هناك إرشادات أو إجراءات أقل تحديداً فيما يتعلق بالخصوصية العامة في استخدام التقنيات الجديدة في مكان العمل، حيث صدر تشريع في كاليفورنيا من شأنه أن يقيد استخدام أصحاب العمل لبيانات المرشحين أو الموظفين. بشكل عام، لم تعتمد محاكم الولايات والمحاكم الفيدرالية إطار عمل موحد لتحليل خصوصية الموظف فيما يتعلق بالتقنيات الجديدة.  والخلاصة هي بقاء خصوصية الموظفين في عصر البيانات الكبيرة دون تسوية، على الأقل حتى الآن. وهو ما يؤدي إلى وضع أصحاب العمل في موقف متضارب يدعو إلى توخي الحذر: إذ تتوفر أحدث التقنيات التي قد تكون مفيدة للغاية، ولكنها توفر لهم معلومات اعتبرت فيما سبق أنها خاصة. هل من القانوني استخدام هذه التقنيات في سياق التوظيف؟ وهل من الأخلاقي النظر فيها في حال لم يبد المرشح موافقته؟

3) ما هي الإغراءات التي ستواجهها الشركات من حيث خصوصية المرشح المتعلقة بالإعاقة؟

تندرج الإعاقات العقلية ضمن إطار قانون الأميركيين ذوي الإعاقة، إلى جانب الإعاقات الجسدية، ويوصف الفرد أنه معاق إذا كانت إعاقته تحدّ بشكل كبير من قيامه بالأنشطة الأساسية في الحياة، أو إذا كان لدى الشخص سجل بمثل هذه الإعاقة، أو ينظر إليه أنه معاق. وقد أصدرت لجنة تكافؤ فرص العمل (EEOC) في الولايات المتحدة منذ ما يقرب من عقد من الزمن توجيهات تُفيد اعتبار القائمة الموسعة لاضطرابات الشخصية الموصوفة في النظريات النفسية أنها إعاقات عقلية، وقد جعل قانون التعديلات على قانون الأميركيين ذوي الإعاقة من السهل على الفرد تحديد ما إذا كان معاقاً ضمن المعنى المقصود في قانون الإعاقة. نتيجة لذلك، قد تشمل الآن فئة الأشخاص المحميين بموجب قانون الأميركيين ذوي الإعاقة الأشخاص الذين يعانون من مشاكل كبيرة في التواصل في المواقف الاجتماعية، أو الأشخاص الذين يعانون من مشاكل في التركيز، أو الأشخاص الذين يجدون صعوبة في التفاعل مع الآخرين.

وبالإضافة إلى طرح أسئلة جديدة حول الإعاقة، تقدم التكنولوجيا أيضاً معضلات جديدة فيما يتعلق بالاختلافات، سواء كانت ديموغرافية أو غير ذلك. وقد حصلت بالفعل مواقف واقعية بارزة كشفت فيها هذه الأنظمة عن تحيزات مستخلصة، خاصة فيما يتعلق بالعرق والميل العاطفي. على سبيل المثال، طورت شركة أمازون برنامجاً آلياً للبحث عن المواهب بهدف تقييم السير الذاتية، لكن تخلّت الشركة عن تطويره بمجرد أن أدركت أن البرنامج لم يصنف المرشحين بطريقة تفرق بين الذكور والإناث. ويقوم المطورون اليوم بموازنة البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي لتمثيل جميع المجموعات بشكل مناسب بهدف تقليل هذه التحيزات. وكلما زادت المعلومات التي تمتلكها التكنولوجيا وتمثلها وتتعلم منها، أمكنها التحكم في التحيز المحتمل بشكل أفضل.

وفي الختام، يمكن لآثار الذكاء الاصطناعي في التوظيف وللتقنيات الجديدة بالفعل تجاوز الحدود بين السمات العامة والخاص، و”الصفات” و”الحالات” بطرق جديدة، وثمة ما يكفي من الأسباب التي تدعو للاعتقاد بقدرة هذه التقنيات الجديدة على القيام بذلك في المستقبل بشكل متزايد.

وسيتمتّع أصحاب العمل بإمكانية الحصول على بيانات أكبر حول الحياة الخاصة للمرشحين والسمات الخاصة والتحديات الخاصة والحالات الذهنية باستخدام آثار الذكاء الاصطناعي في التوظيف إضافة إلى البيانات الكبيرة ووسائل التواصل الاجتماعي والتعلم الآلي. ولا توجد إجابات سهلة للرد على العديد من الأسئلة الجديدة حول الخصوصية التي طرحناها في هذه المقالة، لكننا نعتقد أن هذه الأسئلة تستحق إجراء المناقشات والحوارات العامة حولها.

اقرأ أيضاً:

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

Content is protected !!