تمت عملية الاشتراك بنجاح

إغلاق

عذراً، أنت مشترك مسبقاً بالنشرة البريدية

إغلاق
facebook
twitter
whatsapp
email
linkedin
messenger
ملخص: ليس من السهل معرفة كيفية إدارة أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول اليوم. لكن "مكتب محاسبة الحكومة الأميركية" وضع مؤخراً إطار العمل الأول للحكومة الفيدرالية من أجل المساعدة في ضمان المساءلة والاستخدام المسؤول لأنظمة الذكاء الاصطناعي. يحدد الإطار الشروط الأساسية للمساءلة طوال دورة الحياة الكاملة لأنظمة الذكاء الاصطناعي، من التصميم والتطوير إلى الاستخدام والمراقبة، ويعرض أسئلة محددة للقادة والمؤسسات يمكنهم طرحها، وكذلك إجراءات التدقيق التي يمكن استخدامها عند تقييم أنظمة الذكاء الاصطناعي.

عندما يتعلق الأمر بإدارة أنظمة الذكاء الاصطناعي، هناك ما يكفي من المبادئ والمفاهيم التي تهدف إلى دعم الاستخدام العادل والمسؤول. لكن غالباً ما تقع المؤسسات وقادتها في حيرة عند مواجهة أسئلة صعبة حول كيفية إدارة أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول اليوم.
لهذا السبب، في "مكتب محاسبة الحكومة الأميركية" وضعنا مؤخراً إطار العمل الأول للحكومة الفيدرالية من أجل المساعدة في ضمان المساءلة والاستخدام المسؤول لأنظمة الذكاء الاصطناعي. يحدد الإطار الشروط الأساسية للمساءلة طوال دورة الحياة الكاملة لأنظمة الذكاء الاصطناعي، من التصميم والتطوير إلى الاستخدام والمراقبة. كما يعرض أسئلة محددة يمكن طرحها وإجراءات التدقيق التي يمكن استخدامها عند تقييم أنظمة الذكاء الاصطناعي على صعيد الأبعاد الأربعة

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الاميركية - 2021

اترك تعليق

قم بـ تسجيل الدخول لتستطيع التعليق
avatar
  شارك  
التنبيه لـ
error: المحتوى محمي !!