تمت عملية الاشتراك بنجاح

إغلاق

عذراً، أنت مشترك مسبقاً بالنشرة البريدية

إغلاق
اشترك

الاستمرار بالحساب الحالي

شارك
شارك

كيف تدمج المساءلة في صميم أنظمة الذكاء الاصطناعي؟

سجل الدخول الآن للاستماع الى المقال
ملخص: ليس من السهل معرفة كيفية إدارة أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول اليوم. لكن "مكتب محاسبة الحكومة الأميركية" وضع مؤخراً إطار العمل الأول للحكومة الفيدرالية من أجل المساعدة في ضمان المساءلة والاستخدام المسؤول لأنظمة الذكاء الاصطناعي. يحدد الإطار الشروط الأساسية للمساءلة طوال دورة الحياة الكاملة لأنظمة الذكاء الاصطناعي، من التصميم والتطوير إلى الاستخدام والمراقبة، ويعرض أسئلة محددة للقادة والمؤسسات يمكنهم طرحها، وكذلك إجراءات التدقيق التي يمكن استخدامها عند تقييم أنظمة الذكاء الاصطناعي. عندما يتعلق الأمر بإدارة أنظمة الذكاء الاصطناعي، هناك ما يكفي من المبادئ والمفاهيم التي تهدف إلى دعم الاستخدام العادل والمسؤول. لكن غالباً ما تقع المؤسسات وقادتها في…

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الاميركية 2022