تابعنا على لينكد إن

تولّد كلّ من الحوسبة الإدراكية والذكاء الاصطناعي ما يطلق عليه الكثيرين نوعاً جديداً من الثورة الصناعية. وفي حين تشير كلا التقنيتين إلى نفس العملية، إلا أنه هنالك فارق بسيط بينهما. ولنكون أكثر دقة، تستخدم الحوسبة الإدراكية مجموعة من التقنيات التي تهدف إلى زيادة القدرات الإدراكية للعقل البشري. ولأن هذه النظم يمكن تدريبها على تحليل وفهم اللغة الطبيعية، وتقليد عمليات التفكير البشري، واتخاذ القرارات، تقوم الشركات بنشرها على نحو متزايد بأتمتة الأنشطة الروتينية. فمن السيارات ذاتية القيادة إلى الطائرات دون طيار إلى العمليات التجارية الآلية، فإنّ هذه التكنولوجيا لديها القدرة على تعزيز الإنتاجية وتوجيه المواهب البشرية إلى القضايا الحساسة وتسريع الابتكار وتخفيض تكاليف التشغيل.

ومع ذلك، فإنّ الأنظمة الإدراكية التي تستخدم الروبوتات البشرية والصور الرمزية وأقل عمالة من الموارد البشريّة، كأي تكنولوجيا لا تُدار ولا تتم حمايتها بالشكل الصحيح، يمكن أن تشكل أيضاً نقاط ضعف هائلة في مجال الأمن الإلكتروني للشركات، ما يعرض عملياتها للخطر. وقد استفادت شريحة المجرمين من هذه الثغرة لسنوات عدة.

ففي عالم رقمي يتم فيه الاعتماد بشكل كبير على تحليل بيانات الأعمال والتعاملات الاستهلاكية الإلكترونية، لا يمكن للمدراء التنفيذيين تجاهل هذه المخاطر الأمنية القائمة. وبالإضافة إلى ذلك، هناك مخاطر إلكترونية فريدة وجديدة مرتبطة بالتكنولوجيا المعرفية و تكنولوجيا الذكاء الاصطناعي. يجب أن تكون الأعمال مدروسة في ما يخصّ اعتماد تقنيات المعلومات الجديدة، وتوظيف طبقات متعددة من الدفاع الإلكتروني، والتخطيط الأمني للحد من التهديد المتزايد. وكما هو الحال في أي تكنولوجيا جديدة مبتكرة، تملك آثاراً إيجابية وأخرى سلبية. وعلى الشركات إدراك أنّ التكنولوجيا القوية التي تعود عليها بالنفع، قادرة بنفس الدرجة أيضاً على إلحاق الضرر بها.

إذاً، ليس هناك ضمان لموثوقية التكنولوجيا الإدراكية. فهي مفيدة من ناحية تغذية النظام بالمعلومات، وتدريب ووضع المعلومات في السياق الذي يوفره خبير بشري فقط. وفي الحالة المثالية لهذه الأنظمة، فقد صُممت لمحاكاة وتوسيع نطاق المنطق والحكم وقدرات صنع القرار لأكثر العقول البشرية كفاءة وخبرة. ولكن، يمكن للجهات الفاعلة البشرية السيئة، مثلاً- لنقل موظف مستاء أو دخلاء محتالين- أن تخترق النظام وتُدخل بيانات مضللة أو غير دقيقة، ومن ثم تحتفظ بها كرهينة من خلال حجب المعلومات الحساسة أو من خلال “برمجة” الحاسوب ليقوم بمعالجة البيانات بطريقة غير لائقة.

كذلك، يتم تدريب أنظمة الذكاء المعرفي والصناعي على محاكاة العمليات التحليلية للدماغ البشري، ليس من خلال تعليمات البرمجة الواضحة خطوة بخطوة كالنظام التقليدي دوماً، ولكن من خلال الأمثلة، والتكرار، والمراقبة، والاستدلال.

ولكن، إذا تم تخريب النظام أو تغذيته عمداً بمعلومات غير دقيقة، فيمكن أن يتم استنتاج علاقة غير صحيحة واعتبارها صحيحة أو “تعلم” سلوك سيء. وبما أنّ معظم الأنظمة الإدراكية مصممة بحيث تكون حرة، كما البشر، فإنها غالباً ما تستخدم كلمات مرور التي لا تمتلك تاريخ انتهاء صلاحية أو “مرمزة بصعوبة”. وبالتالي يمكن للهاكر الخبيث استخدام نفس بيانات تسجيل الدخول الاعتمادية التي يستخدمها الروبوت للوصول إلى بيانات أكثر بكثير مما يسمح لشخص واحد الوصول إليه. أحياناً، يتم إنشاء أنظمة مراقبة أمنية لتجاهل سجلات “الروبوت” أو “الوصول إلى الجهاز” للحد من الحجم الكبير للوصول إلى النظام. ولكن هذا يمكن أن يسمح للدخيل الخبيث بالتظاهر على أنه روبوت للوصول إلى أنظمة تعود لفترات طويلة من الزمن، ولا يمكن الكشف عنها أبداً.

وفي بعض الحالات، يمكن أن تؤدي محاولات الاستفادة من التكنولوجيا الجديدة إلى عواقب غير مقصودة قد تؤدي إلى جعل مؤسسة بأكملها ضحية لها. في مثال كلاسيكي من وقتنا الحالي، تم التغلب على الروبوت “تاي” الذي صممته شركة مايكروسوفت لتعلم كيفية التواصل بشكل طبيعي مع الشباب عبر وسائل التواصل الاجتماعي بعد فترة وجيزة من إطلاقه، بسبب اكتشاف متصيدي الإنترنت للثغرات ونقاط الضعف في خوارزميات التعلم الخاصة به، ثم بدأوا بنشر العنصرية والتحيز الجنسي. والنتيجة كانت استقبال “تاي” للإجابات المليئة بالكراهية وغير الملائمة والتعليقات عبر وسائل التواصل الاجتماعي من قبل ملايين المتابعين.

وأخيراً، على عكس ما يظنه العامة، فإنّ النظم المعرفية ليست محمية من الاختراق لأن عملياتها مؤتمتة فقط. وعلى نحو متزايد تصبح روبوتات الدردشة موجودة في كل أنواع الإعدادات، بما في ذلك المؤسسات ومراكز الاتصال الخاصة بالعملاء. فمن خلال جميع معلومات المستخدمين الشخصية والرد على استفساراتهم، تم تصميم بعض الروبوتات بحيث تواصل تعلم كيفية قيامهم بعملهم بشكل أفضل مع مرور الوقت. وهذا يلعب دوراً هاماً في ضمان الدقة، خاصة في المجالات المنظمة مثل الرعاية الصحية والمالية التي تمتلك كماً كبيراً من العضويات السرية ومعلومات العملاء.

ولكن مثل أي تقنية، يمكن استخدام هذه الروبوتات الآلية من قبل المخترقين الخبيثين بهدف توسيع معاملات الاحتيال، وتضليل الناس، وسرقة المعلومات الشخصية لهم، واختراق الأنظمة. ورأينا بالفعل أدلة على استخدام أدوات الذكاء الاصطناعي المتقدمة بهدف اختراق المواقع وسرقة المعلومات الحساسة والمحرجة للأفراد عالي المستوى كشركات آشلي ماديسون وياهو ودي إن إس. وطالما أنّ الجهات الفاعلة السيئة تستمر بتطوير الذكاء الاصطناعي المتقدم لأغراض خبيثة، فإنّ هذا الأمر سيتطلّب من المؤسسات نشر تقنيات ذكاء اصطناعي مساوية لها من أجل منع هذه الهجمات وكشفها ومواجهتها.

بالإضافة للمخاطر، هنالك فرصة هائلة لمحترفي أمن المعلومات للاستفادة من الذكاء الاصطناعي والتقنيات الإدراكية. إذ أنّ المهام الروتينية كتحليل كميات كبيرة من سجلات الأحداث الزمنية، يمكن أن تكون مؤتمتة من خلال استخدام العمالة الرقمية والتعلم الآلي بهدف زيادة الدقة.

وعلى الرغم من أنّ النظم تصبح أكثر فعالية في التعرف على الوصول الخبيث وغير المصرح به، فإنه يمكن لأنظمة الأمن الإلكتروني أن تصبح “ذاتية التعافي” في الواقع، كذلك تحديث نُظم التحكم والترميم في الوقت الحقيقيّ كنتيجة مباشرة للتعلم وفهم كيفية استغلال المخترقين للنهج الجديدة.

ختاماً، إنّ وجود التقنيات الإدراكية والذكاء الاصطناعي هو أمر يقيني في مستقبلنا. ولئن كانت لهما القدرة على تحقيق إمكانات هائلة في إنتاجيتنا وجودة حياتنا، علينا أيضاً أن نكون واعين لمواطن الضعف المحتملة ذات النطاق الواسع في قدرتهما. فإنّ خرق الأمن بالنسبة للبشر، يمكن أن يُنسب في بعض الأحيان إلى مصدره وينتهي. أما بالنسبة لاختراقات المحاكاة والذكاء الاصطناعي، فيمكن أن يصبح الضرر هائلاً في غضون ثوان. أي إنّ تحقيق التوازن بين الأتمتة وأمن المعلومات يجب أن يدور حول جعل الأمن الإلكتروني جزءاً لا يتجزأ من بنية المعلومات التحتية في المؤسسة وليس فكرة تخطر لنا بعد حصول الضرر.

تنويه: إن نسخ المقال أو إعادة نشره بأي شكل وفي أي وسيلة دون الحصول على إذن مسبق يعتبر تعدياً على حقوق الملكية الدولية ويعرض صاحبه للملاحقة القانونية. جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشينغ، بوسطن، الولايات المتحدة الأميركية – 2018.

هذه المقالة عن تكنولوجيا

شاركنا رأيك وتجربتك

كن أول من يعلق!

التنبيه لـ

wpDiscuz