$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#7061 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(11249)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "3.235.186.149"
  ["user_header"]=>
  object(stdClass)#7068 (45) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(124) "/%D8%AA%D9%86%D8%B8%D9%8A%D9%85-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_HOST"]=>
    string(13) "hbrarabic.com"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_X_FORWARDED_FOR"]=>
    string(13) "3.235.186.149"
    ["HTTP_CF_RAY"]=>
    string(20) "86bd4e3b8ba38275-FRA"
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_REFERER"]=>
    string(31) "https://hbrarabic.com/?p=311227"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "3.235.186.149"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_X_FORWARDED_HOST"]=>
    string(13) "hbrarabic.com"
    ["HTTP_X_FORWARDED_SERVER"]=>
    string(13) "hbrarabic.com"
    ["HTTP_CONNECTION"]=>
    string(10) "Keep-Alive"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(73) "
Apache/2.4.57 (Debian) Server at hbrarabic.com Port 80
" ["SERVER_NAME"]=> string(13) "hbrarabic.com" ["SERVER_ADDR"]=> string(10) "172.21.0.5" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(14) "162.158.87.170" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "46556" ["REDIRECT_URL"]=> string(44) "/تنظيم-الذكاء-الاصطناعي/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711688524.15884) ["REQUEST_TIME"]=> int(1711688524) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7069 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7070 (2) { ["content_id"]=> int(11249) ["client_id"]=> string(36) "e2b36148-fa88-11eb-8499-0242ac120007" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

هل شركتك مستعدة للقوانين الجديدة للذكاء الاصطناعي؟

5 دقائق
تنظيم الذكاء الاصطناعي
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

ملخص: أعلنت بعض الهيئات الحكومية الأميركية والأوروبية في الأسابيع الأخيرة عن مبادئ توجيهية أو مقترحات لتنظيم الذكاء الاصطناعي، بما في ذلك الجهات التنظيمية المالية ولجنة التجارة الفيدرالية الأميركية والمفوضية الأوروبية. ومن الواضح أن عملية تنظيم الذكاء الاصطناعي تتطور بسرعة كبيرة. لكن بدلاً من طلب مزيد من الوضوح بشأن الأحكام والقوانين التي سيجري تنفيذها، يمكن للشركات اتخاذ بعض الإجراءات اليوم لتبقى على أهبة الاستعداد للمستقبل، وذلك لوجود 3 توجهات جديدة برزت نتيجة التحركات الأخيرة للحكومات.

أوضحت الجهات التنظيمية والتشريعية في جميع أنحاء العالم خلال الأسابيع القليلة الماضية أمراً مهماً، ألا وهو أن القوانين الجديدة ستوضح قريباً كيفية استخدام الشركات للذكاء الاصطناعي. وأصدرت أكبر 5 جهات تنظيمية مالية فيدرالية في أواخر شهر مارس/آذار في الولايات المتحدة طلباً للحصول على معلومات حول كيفية استخدام البنوك للذكاء الاصطناعي، وهو ما يشير إلى أن المبادئ التوجيهية الجديدة في طريقها إلى القطاع المالي. وبعد أسابيع قليلة من ذلك فقط، أصدرت لجنة التجارة الفيدرالية الأميركية (Federal Trade Commission) أو (FTC) مجموعة جريئة بشكل غير معهود من المبادئ التوجيهية حول معاني “الحقيقة والإنصاف والمساواة” في الذكاء الاصطناعي، وعرّفت الظلم والاستخدام غير القانوني للذكاء الاصطناعي على نطاق واسع أنه أي فعل “يضر أكثر مما ينفع”.

وحذت المفوضية الأوروبية حذوها في 21 أبريل/نيسان، وأصدرت اقتراحها لتنظيم الذكاء الاصطناعي، والذي يتضمن فرض غرامات تصل إلى 6% من الإيرادات السنوية للشركات عند عدم الامتثال، وهي غرامات أعلى من العقوبات الماضية التي تصل إلى 4% من الإيرادات العالمية التي يمكن فرضها بموجب اللائحة العامة لحماية البيانات.

إدارة مخاطر الذكاء الاصطناعي

إن المشكلة واضحة بالنسبة للشركات التي تتبنى الذكاء الاصطناعي، فمن ناحية، ستؤثر أطر العمل التنظيمية المتطورة بشأن الذكاء الاصطناعي بشكل كبير على قدرتها على استخدام التكنولوجيا؛ ومن ناحية أخرى، لا تزال طبيعة الأعمال التي يمكن للشركات ممارستها غامضة مع استمرار تطور القوانين والاقتراحات الجديدة. ومع ذلك، ينطوي الخبر السار على وجود 3 توجهات رئيسة توحد تقريباً جميع الأحكام الحالية والمقترحة بشأن الذكاء الاصطناعي، وهو ما يعني وجود إجراءات ملموسة يمكن للشركات اتخاذها في الوقت الحالي لضمان عدم تعارض أنظمتها مع أي قوانين وأحكام حالية ومستقبلية.

ينطوي التوجه الأول على الحاجة إلى إجراء تقييمات لمخاطر الذكاء الاصطناعي وتوثيق كيفية التقليل من تلك المخاطر (والأمثل حلها). تُطلق مجموعة من أطر العمل التنظيمية على تلك الأنواع من تقييمات المخاطر مصطلح “تقييمات أثر الخوارزميات“، أو تقييمات أثر الذكاء الاصطناعي”، التي شاع استخدامها مؤخراً ضمن مجموعة من أطر عمل حماية البيانات والذكاء الاصطناعي.

في الواقع، يجري تطبيق عدة أنواع من تلك المتطلبات بالفعل، مثل قانون حماية بيانات المستهلك في ولاية فرجينيا الأميركية الذي تم توقيعه في شهر مارس/آذار، والذي يتطلب إجراء تقييمات لأنواع معينة من الخوارزميات عالية المخاطر. وتتطلب اللائحة العامة لحماية البيانات في الاتحاد الأوروبي حالياً تقييمات أثر مماثلة للمعالجة عالية المخاطر للبيانات الشخصية. (نشر مكتب مفوّضية المعلومات في المملكة المتحدة الذي ينّفذ اللائحة العامة لحماية البيانات مبادئ توجيهية حول كيفية إجراء تقييمات الأثر على موقعه على الويب بلغة بسيطة ومفهومة).

وليس من المستغرب أن تشكل تقييمات الأثر أيضاً جزءاً أساسياً من مقترح الاتحاد الأوروبي الجديد بشأن تنظيم الذكاء الاصطناعي، الذي يتطلب إعداد وثيقة فنية من 8 أقسام لأنظمة الذكاء الاصطناعي عالية المخاطر تُفصَّل فيها “النتائج غير المقصودة ومصادر المخاطر المتوقعة” لكل نظام ذكاء اصطناعي، إضافة إلى وضع خطة لإدارة المخاطر والتصدي لها. ويجب أن يكون مقترح الاتحاد الأوروبي مألوفاً لدى المشرعين الأميركيين، فهو يتماشى مع تقييمات الأثر المطلوبة في مشروع قانون اقتُرح عام 2019 في كلا مجلسي الكونغرس يدعى “قانون المسؤولية الخوارزمية”. وعلى الرغم من رفض مشروع القانون في كلا المجلسين، كان المقترح سيفرض إجراء مراجعات مماثلة لتكاليف أنظمة الذكاء الاصطناعي المتعلقة بمخاطر تلك الأنظمة وفوائدها. ولا يزال مشروع القانون هذا يحظى بدعم واسع في كل من مجتمعات الأبحاث والسياسات حتى يومنا هذا، ويقال إن السناتور رون وايدن (ديمقراطي من ولاية أوريغون) هو أحد داعمي المشروع وهو يخطط لإعادة تقديم مشروع القانون في الأشهر المقبلة.

وعلى الرغم من اختلاف المتطلبات المحددة لتقييمات الأثر بين أطر العمل، تشترك كل تلك التقييمات بهيكل مكوّن من جزأين: ألا وهما فرض وصفٍ واضح للمخاطر الناجمة عن كل نظام ذكاء اصطناعي ووصفٍ واضح لكيفية معالجة كل خطر فردي. ويُعد ضمان وجود إجراء يوثّق عمليات أنظمة الذكاء الاصطناعي ويسجل كل متطلبات تلك الأنظمة طريقة واضحة لضمان الامتثال للقوانين الجديدة والمتطورة.

يتمثّل التوجه الثاني في تحمّل المسؤولية والاستقلالية، وهو يتطلب أن يجري اختبار كل نظام ذكاء اصطناعي على مستوى عال من حيث المخاطر وأن يكون لعلماء البيانات والمحامين وغيرهم من القائمين على تقييم أنظمة الذكاء الاصطناعي حوافز مختلفة عن تلك التي يتمتع بها علماء البيانات العاملون في الخطوط الأمامية. قد يعني ذلك في بعض الحالات ببساطة أن يجري اختبار الذكاء الاصطناعي والمصادقة عليه من قبل أفراد فنيين مختلفين عن أولئك الذين طوروه في الأصل؛ وقد تسعى المؤسسات في حالات أخرى إلى توظيف خبراء خارجيين للمشاركة في تلك التقييمات لإثبات تحمّل المسؤولية والاستقلالية الكاملة (لاسيّما في الأنظمة العالية المخاطر). (إفصاح: كثيراً ما يُطلب من شركة المحاماة التي أديرها، “بي إن آتش دوت أيه آي” (bnh.ai)، أداء ذلك الدور). وفي كلتا الحالتين، يُعتبر ضمان أن تخلق العمليات الواضحة استقلالية تامة لمطوري البرمجيات وأولئك العاملين على تقييم أنظمة المخاطر عنصراً رئيساً في كل أطر العمل التنظيمية الجديدة تقريباً حول الذكاء الاصطناعي.

وكانت لجنة التجارة الفيدرالية صريحة بشأن تلك النقطة بالضبط منذ سنوات. وأوصت في مبادئها التوجيهية الصادرة في 19 أبريل/نيسان من العام الجاري بأن “تتبنى” الشركات أنظمة تحمّل المسؤولية والاستقلالية وأشادت باستخدام أطر الشفافية والمعايير المستقلة والتدقيق المستقل والبيانات المفتوحة أو شفرة المصدر في عمليات التدقيق الخارجي. (تكرر تلك التوصية نقاطاً مماثلة بشأن أحكام تحمّل المسؤولية التي أعلنت عنها الوكالة في شهر أبريل/نيسان من العام الماضي).

ويتمثّل التوجه الأخير في الحاجة إلى إجراء مراجعة مستمرة لأنظمة الذكاء الاصطناعي، حتى بعد إجراء تقييمات الأثر والمراجعات المستقلة. ويبدو ذلك منطقياً، فنظراً لضعف أنظمة الذكاء الاصطناعي ووجود احتمالات عالية لفشلها، تزداد مخاطر تلك الأنظمة وتتغير حتماً بمرور الوقت، وهو ما يعني أن مخاطر الذكاء الاصطناعي لا يمكن تخفيفها تماماً في الواقع العملي.

لهذا السبب، يرسل المشرّعون والجهات التنظيمية على حد سواء رسالة مفادها أن إدارة المخاطر هي عملية مستمرة. وقد تم تخصيص قسم كامل لوصف “النظام المطبق لتقييم أداء أنظمة الذكاء الاصطناعي في مرحلة ما بعد السوق” في نموذج التوثيق المكون من 8 أقسام والمخصص لأنظمة الذكاء الاصطناعي في مقترح الاتحاد الأوروبي الجديد؛ بعبارة أخرى، كيفية الاستمرار في مراقبة أنظمة الذكاء الاصطناعي بمجرد نشرها.

بالنسبة للشركات التي تتبنى الذكاء الاصطناعي، فذلك يعني ضرورة أن تجري مهمة تدقيق أنظمة الذكاء الاصطناعي ومراجعتها بشكل منتظم في سياق عملية منظمة تضمن مراقبة عمليات الاستخدام الأكثر خطورة بشكل أكثر دقة. ويُعد توثيق تفاصيل تلك العملية جانباً أساسياً للامتثال للقوانين الجديدة، كهوية الأشخاص الذين يدققون الأنظمة وموعد تلك العملية والأطراف المسؤولة عنها.

هل ستتوصل الجهات التنظيمية إلى أساليب أخرى لإدارة مخاطر الذكاء الاصطناعي خارج تلك التوجهات الثلاثة؟ بالتأكيد.

تنظيم الذكاء الاصطناعي

يوجد مجموعة من الطرق لتنظيم أنظمة الذكاء الاصطناعي، بدءاً من متطلبات التفسير للخوارزميات المعقدة إلى القيود الصارمة على كيفية نشر أنظمة معينة للذكاء الاصطناعي (كالحظر التام لحالات استخدام معينة، مثل حظر التعرف على الوجه الذي تم اقتراحه في العديد من الولايات القضائية عبر العالم).

في الواقع، لم يتوصل المشرّعون والجهات التنظيمية حتى الآن إلى إجماع واسع حول ماهية “الذكاء الاصطناعي” نفسه، وهو شرط مسبق واضح لتطوير معيار مشترك للتحكم في الذكاء الاصطناعي. على سبيل المثال، صُممت بعض التعريفات بشكل خاص بحيث لا تنطبق إلا على الاستخدامات المعقدة للتعلم الآلي التي تعد جديدة نسبياً في عالم التجارة؛ في حين تغطي التعريفات الأخرى كل نظام برمجي معني في عملية صناعة القرار تقريباً، والتي يمكن تطبيقها على الأنظمة القائمة منذ عقود (مثل التعريف الموجود في مقترح الاتحاد الأوروبي الأخير). تُعد التعريفات المتباينة للذكاء الاصطناعي ببساطة واحدة من بين العديد من الدلائل على أننا ما زلنا في المراحل الأولى من الجهود العالمية الرامية إلى تنظيم الذكاء الاصطناعي.

لكن على الرغم من أننا ما زلنا في المراحل الأولى للتنظيم، تتمتع الطرق التي تتعامل بها الحكومات مع مسألة مخاطر الذكاء الاصطناعي بقواسم مشتركة واضحة، وهو ما يعني أن معايير تنظيم الذكاء الاصطناعي أصبحت واضحة بالفعل. وبالتالي، لا يجب على المؤسسات التي تتبنى أنظمة الذكاء الاصطناعي اليوم، وتلك التي تسعى إلى ضمان توافق أنظمة ذكائها الاصطناعي الحالي مع القوانين الجديدة أن تنتظر ظهور تلك القوانين بالفعل، بل يجب عليها التحضير والاستعداد لذلك المستقبل القريب.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

Content is protected !!