تستخدم الشركات الذكاء الاصطناعي للحيلولة دون وقوع كافة أنواع الجرائم والكشف عنها، بداية من سرقات الموظفين الروتينية وحتى المضاربة من الداخل. وتوظف الكثير من البنوك والشركات الذكاء الاصطناعي للكشف عن عمليات الاحتيال وغسيل الأموال ومنعها. وتستغل شركات مواقع التواصل الاجتماعي التعلم الآلي لحجب المحتوى غير المشروع كصور الأطفال الإباحية. وتجرّب الشركات على الدوام مجموعة طرق جديدة لاستخدام الذكاء الاصطناعي لإدارة المخاطر بشكل أفضل وللكشف بصورة أسرع عن الاحتيال، بل حتى للتنبؤ بالجرائم والحيلولة دون وقوعها.

وعلى الرغم من أنّ تقنية العصر الحالي الأساسية ليست ثورية بضرورة الحال، فإنّ الخوارزميات التي تستخدمها والنتائج التي يمكن أن تحققها ثورية. على سبيل المثال، عكفت البنوك على استخدام نظم مراقبة المعاملات المصرفية لعقود بناء على قواعد ثنائية محددة مسبقاً تتطلب التحقق من النتائج يدوياً. ويكون معدل النجاح في ذلك متدن عادة: فهو 2% في المتوسط فقط من المعاملات التي تميزها النظم وتعكس في نهاية المطاف جريمة حقيقية أو نية خبيثة. وفي المقابل، تستخدم حلول التعلم الآلي في عصرنا هذا قواعد تنبؤية تتعرف من خلالها تلقائياً على الانحرافات في مجموعات البيانات. وهذه الخوارزميات المتقدمة بوسعها تقليص عدد الإنذارات الكاذبة إلى حد كبير بترشيح الحالات التي تم تمييزها عن طريق الخطأ واستبعادها، وفي الوقت نفسه الكشف عن حالات أخرى غفلت عنها القواعد التقليدية.

وبالنظر إلى ثروة البيانات المتاحة لدينا اليوم، والآمال العريضة المتزايدة للعملاء والهيئات العامة متى تعلق الأمر بحماية البيانات وإدارتها، قررت شركات عدة أنّ هذه هي الطريقة الوحيدة لمواكبة المجرمين الذين يزدادون حنكة وبراعة. من المتوقع الآن على سبيل المثال من شركات مواقع التواصل الاجتماعي أن تميط اللثام عن مقاطع الفيديو والرسائل المتعلقة باستقطاب الإرهابيين ومحوها على الفور. وفي الوقت المناسب، ستصبح أدوات مكافحة الجريمة التي تعمل بالذكاء الاصطناعي متطلباً ضرورياً في الشركات الكبرى، فمن ناحية، لن تكون هناك طريقة أخرى للكشف السريع عن أنماط الجرائم عبر الملايين من مجموعات البيانات وتفسيرها.

لكن تحديد ما إذا كانت حلول مكافحة الجريمة المستندة إلى الذكاء الاصطناعي خياراً استراتيجياً مناسباً لشركة ما يعتمد على ما إذا كانت المنافع تفوق المخاطر التي ترافقها. ومن بين تلك المخاطر أنّ الاستنتاجات المشوبة بالتحيز يمكن استخلاصها من الذكاء الاصطناعي بناء على عوامل العرق والنوع الاجتماعي والعمر. ويمكن أن تشهد الشركات أيضاً رد فعل سلبي من العملاء الذين يساورهم القلق بشأن احتمالات سوء استخدام بياناتهم أو استغلالها بمراقبة سجلاتهم ومعاملاتهم واتصالاتهم مراقبة أكثر تركيزاً، خاصة إذا كانت النتائج المستخلصة تُشارك مع الحكومة. مؤخراً على سبيل المثال، أُجبر بنك أوروبي على التراجع عن خطته للحصول على إذن عملائه لمراقبة حسابات التواصل الاجتماعي الخاصة بهم كجزء من عملية طلب الرهن العقاري، بعد احتجاج عام على تكتيكاته "الرقابية".

وعليه، كيف تُقيّم الشركات المتقدمة منافع ومخاطر مكافحة الجرائم المستندة إلى الذكاء الاصطناعي المتطور سريعاً وإدارة المخاطر؟ فيما يلي شرح لبعض الخطوات التي تتخذها تلك الشركات:

تقييم الخيار الاستراتيجي المناسب

على المدراء أولاً، وقبل الشروع في تبني مبادرة إدارة المخاطر بواسطة الذكاء الاصطناعي، فهم الأماكن التي يُحدث فيها التعلم الآلي فارقاً كبيراً بالفعل. فالبنوك مثلاً توقف الجرائم المالية بسرعة أكبر بكثير وبتكلفة أرخص من ذي قبل عادة باستخدامها الذكاء الاصطناعي لأتمتة العمليات وإجراء تحليلات "التعلم الآلي" المتعددة المستويات. وعلى الرغم من أنّ البنوك الآن ترفع تقارير بأنشطة مريبة تتعلق بغسيل الأموال (بمقدار 20 تقريراً) أي أكثر مما رفعت في العام 2012، فقد سمحت لها أدوات الذكاء الاصطناعي بتقليص أعداد جحافل الموظفين في البنوك لتقييم إنذارات الأنشطة المريبة. وذلك لأن إنذاراتهم الكاذبة تراجعت إلى النصف تقريباً بفضل الذكاء الاصطناعي، ولأن الكثير من البنوك باتت قادرة على أتمتة أعمال جمع البيانات الروتينية التي كان يقوم بها البشر في مجال تقييم المستندات. على سبيل المثال، قلصت شركة باي بال (PayPal) أيضاً إنذاراتها الكاذبة باستخدام الذكاء الاصطناعي إلى النصف. ومنع بنك سكوتلاند الملكي (Royal Bank of Scotland) خسائر تجاوزت 9 ملايين دولار كان من الممكن أن يتكبدها عملاؤه بعد أن أجرى تجربة لمدة عام كامل مع شركة فوكالينك أناليتيكس (Vocalink Analytics)، إحدى شركات المدفوعات، لاستخدام الذكاء الاصطناعي في مسح معاملات الشركات الصغيرة للكشف عن الفواتير المزيفة.

وتسمح أدوات الذكاء الاصطناعي أيضاً للشركات بتبيان الأنماط المريبة أو العلاقات الخفية حتى على الخبراء. على سبيل المثال، بوسع الشبكات العصبية الاصطناعية تمكين الموظفين من توقع الخطوات التالية للمجرمين المجهولين حتى الذين توصلوا إلى طرق للتحايل على محفزات إطلاق الإنذارات في نظم الأمن الثنائية المستندة إلى قواعد محددة. وتربط الشبكات العصبية الاصطناعية هذه بين ملايين النقاط من قواعد البيانات غير المترابطة ظاهرياً والتي تحوي كل شيء، بداية من تدوينات مواقع الإعلام الاجتماعي مروراً بعناوين بروتوكول الإنترنت المستخدمة في شبكات الاتصال اللاسلكي بالإنترنت في المطارات وحتى الممتلكات العقارية أو الإقرارات الضريبية، وتحدد الأنماط المريبة.

الخطوة التالية في تقييم الحكمة من إطلاق برنامج إدارة المخاطر القائم على الذكاء الاصطناعي تختص بتقييم الشركات إلى أي مدى يتوقع عملاؤها والهيئات الحكومية أن تكون متقدمة على الآخرين. وحتى لو لم يصبح ذلك التزاماً تنظيمياً أو قانونياً، قد تجد الشركات ميزة في أدائها دوراً رائداً في استخدام التحليلات المتقدمة بحيث يتسنى لها المشاركة في وضع معايير على نطاق الصناعة. وبإمكانها المساعدة على ضمان الحفاظ على سلامة المشاركين في القطاع الصناعي والجهات الناظمة والمبتكرين التقنيين والعملاء دون المساس بخصوصية الأفراد وحقوق الإنسان.

تقييم المخاطر الداخلية والحد منها

في الوقت الذي يدرس فيه المدراء كيف يمكن للذكاء الاصطناعي مساعدتهم على تحديد الأنشطة الإجرامية، عليهم أيضاً التفكير في كيفية توافق الذكاء الاصطناعي في استراتيجية الذكاء الاصطناعي الأوسع.  ولا ينبغي إجراء إدارة مخاطر الذكاء الاصطناعي والكشف عن الجرائم بشكل منعزل. فمن الممكن أن يساعد الاختبار المسبق مع نماذج أبسط البنوك في تقييد أثر الاستنتاجات التي قد يكون من المتعذر تفسيرها ويخلص إليها الذكاء الاصطناعي، خاصة إذا كان هناك حدث مجهول لم يتدرّب عليه النموذج. على سبيل المثال، تستخدم البنوك الذكاء الاصطناعي لمراقبة المعاملات وتقليص عدد الإنذارات الكاذبة، كالأموال الجاري غسلها لأغراض إجرامية. وتختبر هذه الإنذارات مسبقاً مقابل نماذج أبسط قائمة على القواعد لتحديد الانحرافات المحتملة. قد يتجاهل نموذج الذكاء الاصطناعي مثلاً عن طريق الخطأ معاملة غسيل أموال ضخمة تستحث عادةً تحذيراً في نظام قائم على قواعد محددة إذا استقر على أنّه ثمة معاملات ضخمة أجراها عملاء مقيمون في أحياء ثرية لا تستحق الكثير من الاهتمام، وفقاً لبيانات مشوبة بالتحيز. إنّ استخدام هذا النهج يمكّن الشركات من تصميم نماذج تعلم آلي أكثر شفافية، حتى إذا كان ذلك يعني أنها ستعمل ضمن حدود أكثر وضوحاً.

والأهم من ذلك كله، ينبغي على المدراء تقييم ما إذا كانت تحليلات بيانات شركاتهم كافية للتعامل مع أدوات الذكاء الاصطناعي المعقدة. وإن لم يفعلوا، فهم بحاجة إلى تطوير قدرات تحليل البيانات داخلياً للوصول إلى كتلة حرجة من العمليات المؤتمتة والتحليلات المنظمة.

فهم المخاطر الخارجية والتأهب لها

يمكن أيضاً أن يتسبب الاستخدام المتزايد لأدوات الذكاء الاصطناعي لمنع وقوع الجرائم في تعاقب المخاطر الخارجية بطرق غير متوقعة. ويمكن أن تخسر أي شركة مصداقيتها لدى الجمهور والجهات الناظمة وغيرهم من أصحاب المصالح بطرق متعددة؛ على سبيل المثال، إذا كانت هناك إنذارات كاذبة تشير بأصابع الاتهام إلى أشخاص بعينهم عن طريق الخطأ على أنهم "مشتبه بهم" أو "مجرمين" نظراً لتحيز عرقي مدمج من دون قصد في النظام؛ أو على النقيض، إذا فاتها أنشطة إجرامية يزاولها عملاؤها، كالاتجار في المخدرات، أو أموال تُوجّه من دول مفروض عليها عقوبات كإيران. ويمكن أن يلجأ المجرمون إلى إجراءات أكثر تطرفاً، وربما كانت عنيفة، للتحايل على الذكاء الاصطناعي. ومن الممكن حتى أن يفر العملاء إلى كيانات أقل عرضة للمراقبة عن كثب خارج الصناعات المقننة بلوائح محددة. ومن الممكن حتى أن يتطور مصدر خطر أخلاقي إذا أمسى الموظفون يعولون بشكل مفرط على أدوات مكافحة الجرائم التي تعمل بالذكاء الاصطناعي لضبط المجرمين نيابة عن شركاتهم.

وللحيلولة دون ذلك، تحتاج الشركات إلى ابتكار مجموعة متنوعة من سيناريوهات الأحداث المتعاقبة الناتجة عن الأدوات التي تعمل بالذكاء الاصطناعي المستخدمة في تعقب الأنشطة الإجرامية واختبارها. وللتفوق على دهاء مجرمي غسيل الأموال مثلاً، ينبغي على البنوك إجراء "مناورات" مع مدعين عامّين سابقين ومحققين للتعرف على كيفية تحايل هؤلاء المجرمين على نظامها.

وباستخدام النتائج المستخلصة من تحليل السيناريوهات، يستطيع المدراء بعد ذلك مساعدة كبار التنفيذيين وأعضاء مجلس الإدارة على اتخاذ قرار بشأن مدى ارتياحهم لاستخدام مكافحة الجرائم القائمة على الذكاء الاصطناعي. وبوسعهم أيضاً وضع الكتب التوجيهية لإدارة الأزمات والتي تحوي على استراتيجيات تواصل داخلية وخارجية بحيث يستطيعون الاستجابة بسرعة عندما يقع (لا محالة) خَطب ما.

تستطيع الشركات باستخدام الذكاء الاصطناعي تحديد ألوان الجرائم المحتملة كالاحتيال وغسيل الأموال وتمويل الإرهاب – فضلاً عن جرائم أبسط كسرقات الموظفين والاحتيال الإلكتروني والفواتير المزيفة – لمساعدة الهيئات العامة في ملاحقة هؤلاء المجرمين قضائياً بفاعلية وكفاءة أكبر بكثير.  لكن هذه المزايا تصاحبها مخاطر ينبغي تقييمها بصراحة وصدق وشفافية لتحديد ما إذا كان استخدام الذكاء الاصطناعي بهذه الطريقة خياراً استراتيجياً مناسباً. ولن يكون الأمر سهلاً. لكن التواصل الصريح مع الجهات الناظمة والعملاء سيسمح للشركات بالارتقاء للتحدي الذي تواجهه عندما لا تسير الأمور على ما يرام. وسوف يكون للذكاء الاصطناعي أثر إيجابي هائل للحد من الجرائم في العالم طالما أنه يدار بشكل جيد.

تنويه: إن نسخ المقال أو إعادة نشره بأي شكل وفي أي وسيلة دون الحصول على إذن مسبق يعتبر تعدياً على حقوق الملكية الدولية ويعرض صاحبه للملاحقة القانونية.

ﺟﻣﯾﻊ اﻟﺣﻘوق ﻣﺣﻔوظﺔ ﻟﺷرﻛﺔ ھﺎرﻓﺎرد ﺑزﻧس ﺑﺑﻠﯾﺷﻧﻎ، ﺑوﺳطن، اﻟوﻻﯾﺎت اﻟﻣﺗﺣدة اﻷﻣﯾرﻛﯾﺔ - 2018

شاركنا رأيك وتجربتك

كن أول من يعلق!

التنبيه لـ

wpDiscuz
error: المحتوى محمي !!