تابعنا على لينكد إن

تعتمد الشركات على الذكاء الاصطناعي لاكتشاف جميع مواضع الخطأ والجرائم ومنعها، بدءاً من السرقة الاعتيادية للموظفين إلى عمليات التداول بناء على معلومات داخلية سرّية. وتعمد مجموعة كبيرة من المصارف والشركات الكبرى إلى توظيف الذكاء الاصطناعي في الكشف عن حالات الاحتيال وغسيل الأموال، والحيلولة دون وقوعها. إذ تستخدم شركات مواقع التواصل الاجتماعي تقنية تعلّم الآلة لحظر المحتوى غير المشروع مثل الصور الإباحية للأطفال. كما أنها تواصل اختبار أساليب جديدة للاستفادة من إمكانات الذكاء الاصطناعي في تحسين إدارة المخاطر، وكشف عمليات الاحتيال بشكل أسرع وأكثر فاعلية – بل وحتى توقّع الجرائم ومنع وقوعها.

وعلى الرغم من أنّ تقنيات اليوم الأساسية ليست متقدمة إلى حدّ بعيد، إلّا أنّ الخوارزميات التي تستخدمها هذه التقنيات والنتائج التي تقدمها هي كذلك. وعلى سبيل المثال، تستخدم المصارف نظم مراقبة الصفقات منذ عقود بناء على قواعد ثنائية محددة مسبقاً تتطلب التحقق يدوياً من النتائج. كما أنّ معدل النجاح منخفض بشكل عام، حيث لا يتجاوز متوسط الصفقات التي تستطيع النظم كشفها بصفة جرائم حقيقية أو تنطوي على نوايا خبيثة الـ2%. وخلافاً لذلك، تعتمد حلول تعلّم الآلة اليوم على قواعد تنبؤية تتعرف تلقائياً على حالات الانحرافات في مجموعات البيانات. ويمكن لهذه الخوارزميات المتطورة الحدّ بشكل كبير من عدد التنبيهات الخاطئة عبر تصفية الحالات المبلّغ عنها بشكل غير صحيح، بينما يتم الكشف عن الحالات الأخرى التي لم تتم تغطيتها باستخدام القواعد التقليدية.

ونظراً لوفرة البيانات اليوم، والتوقعات المتزايدة للعملاء والسلطات العامة فيما يخص حماية هذه البيانات وإدارتها، قررت العديد من الشركات أنّ هذه هي إحدى الطرق الوحيدة لمواكبة المجرمين الأكثر تطوراً. فقد بات من المتوقع أن تمتلك شركات وسائل التواصل الاجتماعي اليوم القدرة على كشف مقاطع الفيديو والرسائل المستخدمة لأغراض إرهابية وإزالتها فوراً. وبمرور الوقت، يمكن أن تتحول أدوات مكافحة الجريمة التي تعمل بالذكاء الاصطناعي إلى مطلب رئيسي للشركات الكبيرة؛ ويرجع السبب في ذلك – جزئياً – إلى غياب أي أساليب أخرى لاكتشاف وتفسير النماذج بسرعة في ظلّ هذا الكم الهائل من البيانات.

لكن تحديد مدى الملاءمة الاستراتيجية لحلول الذكاء الاصطناعي المتخصصة بمكافحة الجريمة يعتمد على مستوى تفوّق المزايا على المخاطر الناجمة عن مثل هذه الحلول. ومن بين هذه المخاطر إمكانية استخلاص الاستنتاجات المتحيزة المستفادة من الذكاء الاصطناعي المبني على عوامل مثل العرق والجنس والعمر. ويمكن أن تشهد الشركات ردود أفعال عنيفة من العملاء القلقين إزاء احتمال إساءة استخدام بياناتهم أو استغلالها عبر مراقبة مكثفة للبيانات في سجلاتهم، ومعاملاتهم واتصالاهم – لا سيما إذا تمت مشاركة هذه المعلومات والبيانات مع الحكومة. إذ اضطر أحد المصارف الأوروبية مؤخراً على سبيل المثال للتراجع عن خطته في طلب الإذن من العملاء لمراقبة حسابات وسائل التواصل الاجتماعي في إطار عملية تقديم طلبات الرهن، بعد غضب شعبي عارم حول تكتيكات “الأخ الأكبر”.

فكيف تقوم الشركات الرائدة بتقييم فوائد ومخاطر حلول مكافحة الجرائم المعززة بتقنيات الذكاء الاصطناعي دائمة التطور وإدارة المخاطر؟ نوضّح فيما يلي بعض الخطوات التي تتخذها تلك الشركات:

تقييم مدى التوافق الاستراتيجي

يجب على المدراء أولاً إدراك المواضيع التي يحقق فيها تعلّم الآلة فروقات ملحوظة، قبل الشروع في مبادرة إدارة مخاطر الذكاء الاصطناعي. تبذل المصارف، على سبيل المثال، جهدها لوقف الجرائم المالية بسرعة أكبر وبتكلفة أقل مما كانت تستخدمه قبل الاعتماد على الذكاء الاصطناعي في أتمتة الإجراءات وإجراء تحليلات التعلم العميق متعددة المستويات. وبالرغم من أنّ المصارف تسجل اليوم تقارير أنشطة مشبوهة ومرتبطة بغسيل الأموال 20 مرة أكثر قياساً بما كانت عليه الحال في العام 2012، أتاحت لهم أدوات الذكاء الاصطناعي القدرة على تقليص عدد الأشخاص الذين يوظفونهم لتقييم التنبيهات الخاصة بالأنشطة المشبوهة. ويرجع ذلك إلى انخفاض التنبيهات الكاذبة بنسبة تصل إلى النصف، بفضل الذكاء الاصطناعي، ولأن العديد من المصارف تستطيع الآن أتمتة الأعمال الاعتيادية التي يقوم بها الموظفون في تقييم المستندات. وهذا ما ينطبق على حالة المصرف الملكي الاسكتلندي الذي حال استخدامه للذكاء الاصطناعي دوّن وقوع خسائر بقيمة تتخطى 9 مليون دولار أميركي على العملاء بعد إجراء تجربة لمدة عام مع فوكالينك أناليتيكس (Vocalink Analytics)، إحدى شركات المدفوعات، لاستخدام الذكاء الاصطناعي في مسح المعاملات التي تجريها الشركات الصغيرة للكشف عن الفواتير المزيّفة، كما انخفضت التنبيهات الخاطئة في باي بال إلى النصف.

وتسمح أدوات الذكاء الاصطناعي للشركات بإظهار الأنماط المشبوهة أو العلاقات غير المرئية حتى للخبراء. وعلى سبيل المثال، يمكن للشبكات العصبية الاصطناعية تمكين الموظفين من توقع الخطوات التالية للمجرمين غير المعروفين الذين اكتشفوا طرقاً حول محفزات التنبيه في النظم الأمنية الثنائية القائمة على القواعد. وتلعب هذه الشبكات العصبية الاصطناعية دوراً في ربط ملايين نقاط البيانات من قواعد البيانات التي تبدو غير ذات صلة، والتي تحتوي على كل شيء من مواقع التواصل الاجتماعي مروراً بعناوين بروتوكول الإنترنت المستخدمة في شبكات “واي فاي” بالمطار، إلى الممتلكات العقارية أو الإقرارات الضريبية وآليات التعرف على الأنماط.

وتأتي الخطوة التالية، في تقييم الحكمة من إطلاق برنامج إدارة للمخاطر قائم على الذكاء الاصطناعي، للشركات لتقييم التقدم الذي يتوقعه منهم العملاء والهيئات الحكومية. وحتى إن لم يتحول ذلك إلى التزام قانوني، تجد الشركات ميزة في القيام بدور ريادي في استخدام التحليلات المتقدمة بحيث يمكنها المشاركة في وضع معايير على مستوى القطاع. ويمكنها المساعدة في ضمان الحفاظ على سلامة المشاركين في القطاع، ومساعدة أصحاب الابتكارات التكنولوجية والعملاء دون المساس بخصوصية الأشخاص وحقوق الإنسان.

تقييم المخاطر الداخلية والحدّ منها

بينما يدرس المدراء آلية الاستفادة من الذكاء الاصطناعي في مساعدتهم بتحديد الأنشطة الإجرامية، ينبغي عليهم التفكير في مدى ملاءمتها لاستراتيجيتهم الأوسع نطاقاً في مجال الذكاء الاصطناعي. ويجب ألا تتم إدارة مخاطر الذكاء الاصطناعي وكشف الجريمة بشكل منعزل. ويمكن للاختبارات الخلفية وقياسها بالنماذج الأبسط مساعدة المصارف على الحد من تأثير الاستنتاجات التي قد تكون غير قابلة للتفسير، والتي استخلصها الذكاء الاصطناعي، لا سيما إذا كان هناك حدث غير معروف لم يتم تدريب النموذج عليه. وعلى سبيل المثال، تستخدم المصارف الذكاء الاصطناعي في مراقبة المعاملات وتقليص عدد الإخطارات الخاطئة التي يتلقونها بشأن المعاملات الاحتيالية المحتملة، مثل الأموال التي يتم غسلها للاستفادة منها في أغراض إجرامية. ويتم اختبار ذلك بالاعتماد على نماذج أكثر بساطة وقائمة على القواعد لتحديد الانحرافات المحتملة. ويمكن أن يُغفل نموذج الذكاء الاصطناعي، وعن طريق الخطأ، معاملة غسيل أموال كبيرة الحجم من شأنها أن تؤدي عادة إلى إطلاق إنذار في نظام قائم على القواعد عند كشفه. وبناء على بيانات متحيزة، لا أهمية تذكر لمراجعة الصفقات الكبيرة التي يجريها عملاء يقيمون في الأحياء الثرية. وبالاعتماد على مثل هذه المنهجية، يمكن للشركات تصميم نماذج تعلّم آلي أكثر شفافية، حتى ولو كان ذلك يعني ضرورة العمل ضمن حدود أكثر وضوحاً.

والأهم من ذلك، ينبغي على المدراء تقييم مدى كفاية تحليلات بيانات شركاتهم للتعامل مع الأدوات المتطورة للذكاء الاصطناعي. وإن لم يكن الأمر كذلك، فهم بحاجة لتطوير قدرات تحليل البيانات داخل الشركة للوصول إلى كتلة حرجة من العمليات الآلية والتحليلات المنظمة.

فهم المخاطر الخارجية والاستعداد لها

يمكن أن يتسبب الاستخدام الزائد لأدوات الذكاء الاصطناعي المعنية بمكافحة الجرائم بتتالي وقوع مخاطر خارجية بأساليب غير متوقعة. وربما تفقد الشركة مصداقيتها لدى الجمهور والهيئات التنظيمية والجهات المعنية الأخرى بطرق لا تعد ولا تحصى – على سبيل المثال – في حال وجود إشعارات خاطئة تحدد عن طريق الخطأ أنّ الشخص “مشبوه” أو “مجرم” جراء انحياز عنصري مبني في النظام بشكل غير مقصود. أو في حال أغفلت أنشطة إجرامية – مثل الإتجار بالمخدرات – يقترفها عملاؤها أو أموال يتم توجيهها من دول خاضعة للعقوبات مثل إيران. وقد يلجأ المجرمون إلى التحايل على الذكاء الاصطناعي عبر إجراءات أكثر حدّة لا تخلو من العنف. ويمكن أن يلجأ العملاء إلى هيئات ذات مستوى مراقبة أقل خارج القطاعات الخاضعة للتنظيم. كما تظهر مخاطر أخلاقية في حال ازداد اعتماد الموظفين على أدوات مكافحة الجريمة القائمة على الذكاء الاصطناعي للقبض على المجرمين بالنيابة عنهم.

وللحيلولة دون ذلك، ينبغي على الشركات إنشاء واختبار مجموعة متنوعة من سيناريوهات الأحداث المتتالية الناتجة عن الأدوات القائمة على الذكاء الاصطناعي لتتبع الأنشطة الإجرامية. ولتكون المصارف أكثر دهاء من مجرمي غسل الأموال على سبيل المثال، ينبغي عليها خوض “ألعاب حربية” مع مدعين عامين سابقين ومحققين لاستكشاف أساليبهم في التغلب على نظامهم.

ومن خلال النتائج المستخلصة من تحليل السيناريوهات، يمكن للمدراء مساعدة كبار المسؤولين التنفيذيين وأعضاء مجلس الإدارة في تحديد مدى الراحة التي يستطيعون الاستمتاع بها من خلال استخدام أدوات مكافحة الجرائم القائمة على الذكاء الاصطناعي. ويمكنهم وضع كتب توجيهية لإدارة الأزمات تحتوي على استراتيجيات الاتصال الداخلية والخارجية، بحيث يمكنهم الاستجابة بسرعة عندما تحدث المشاكل.

ومن خلال استخدام الذكاء الاصطناعي، يمكن للشركات تحديد مجالات الجرائم المحتملة مثل الاحتيال وغسيل الأموال وتمويل الإرهاب، بالإضافة إلى جرائم أكثر خطورة، مثل سرقة الموظفين والاحتيال الإلكتروني والفواتير المزيّفة، لمساعدة الجهات العامة في ملاحقة هذه الجرائم بمستوى أعلى من الفاعلية والكفاءة. إلا أنّ هذه المزايا تترافق مع مخاطر ينبغي تقييمها بأمانة وشفافية، وذلك لتحديد ما إذا كان استخدام الذكاء الاصطناعي بهذه الطريقة أمر ملائم من الناحية الاستراتيجية، وذلك لن يكون سهلاً. لكن الاتصالات الواضحة مع الجهات التنظيمية والعملاء سيتيح للشركات الارتقاء إلى مستوى التحدي عندما تحدث المشاكل. وسيسهم الذكاء الاصطناعي عند إدارته على نحو سليم في الحدّ من الجرائم في العالم بشكل كبير وملحوظ.

تنويه: إن نسخ المقال أو إعادة نشره بأي شكل وفي أي وسيلة دون الحصول على إذن مسبق يعتبر تعدياً على حقوق الملكية الدولية ويعرض صاحبه للملاحقة القانونية. جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشينغ، بوسطن، الولايات المتحدة الأميركية – 2018.

هذه المقالة عن تكنولوجيا

شاركنا رأيك وتجربتك

كن أول من يعلق!

التنبيه لـ

wpDiscuz