ما هو أول شيء فعلته عند استيقاظك هذا الصباح؟ وما هو آخر شيء فعلته قبل خلودك إلى النوم في الليلة الماضية؟
هناك احتمالات بأن كثير منا، بل ربما معظمنا، كانوا يمسكون بهواتفهم الذكية. يزداد تحليل الخوارزميات وإملاؤها لما نستهلكه يومياً من أشياء رقمية، ما نراه (أو لا نراه) في الأخبار ووسائل الإعلام الاجتماعية التي نتابعها، والمنتجات التي نشتريها والموسيقا التي نستمع إليها. وعندما نكتب سؤالاً في محرك البحث، تحدد النتائج وتصنفها حسب ما تعتبره "مفيداً" و"مناسباً". وغالباً ما يتم استبدال "المصادفة" بالمحتوى المنظم، فيوضع كل منا داخل الفقاعة الشخصية المخصصة له.
هل نتخلى عن حريتنا في التعبير والعمل باسم الراحة؟ على الرغم من أننا نفترض أننا نملك القدرة على التعبير عن أنفسنا رقمياً، إلا أن إمكانية رؤيتنا تخضع على نحو متزايد لخوارزميات تضم سطوراً من الرموز والمنطق، مبرمجة على أيدي بشر غير معصومين عن الخطأ. ولكن لسوء الحظ، فإن ما يملي نتائج مثل هذه البرامج ويتحكم بها هو في أكثر الأحيان مجرد صندوق أسود.
خذ مثلاً مقالة نشرت مؤخراً في دورية "وايرد" (Wired)، توضح كيف تقوم خوارزميات برنامج مواعدة بتعزيز التحيز. إذ تستخدم برامج مثل "تيندر" (Tinder) و"هينج" (Hinge) و"بامبل" (Bumble) عملية "تصفية تعاونية" تولد التوصيات بناء على رأي الأغلبية. ومع مرور الوقت، تعزز مثل هذه الخوارزميات التحيز المجتمعي عن طريق الحد مما يمكننا رؤيته. أجرى بعض الباحثين في جامعة كورنيل مراجعة حددوا فيها ميزات التصميم المشابهة في بعض برامج المواعدة نفسها، وإمكانات خوارزمياتها في تقديم أشكال خفية إضافية من التحيز. ووجدوا أن معظم برامج المواعدة توظف خوارزميات تولد عمليات تحديد الشريك المناسب بناء على التفضيلات الشخصية السابقة للمستخدمين وتاريخ هذه العمليات بالنسبة للأشخاص المتشابهين.
ولكن ماذا لو بدأت الخوارزميات العاملة في صندوق أسود بالتأثير على ما يتعدى التعارف أو الهوايات؟ ماذا لو أخذت تحدد الأصوات التي ستُمنح الأولوية؟ ماذا لو لم تكن شبكة الإنترنت ميداناً عاماً تزدهر فيه حرية التعبير، وأصبحت بدلاً من ذلك فضاء خاضعاً للحراسة، حيث لا تُسمع سوى أصوات مجموعة مختارة من الأفراد، وبالتالي يتشكل مجتمعنا بواسطة هذه الأصوات. فلنذهب إلى أبعد من ذلك، ونفترض أن كل مواطن يحصل على درجة اجتماعية بناء على مجموعة من القيم، وبالتالي تخضع الخدمات التي نتلقاها لتلك الدرجة. ما الذي سينتج عن ذلك؟ من المتوقع أن يصبح أحد الأمثلة على هذه الأنظمة، وهو ما يدعى نظام الائتمان الاجتماعي، قيد التشغيل الكامل في الصين في عام 2020. وفي حين لم نتمكن من فهم الآثار الكاملة لبرنامج الصين بعد، تخيل أن يتم قياس إمكانية الحصول على الائتمان بواسطة تاريخ ائتمان الفرد، وبواسطة أصدقائه في دائرة وسائل الإعلام الاجتماعية التي يستخدمها. وأن تحدد جدارته بواسطة خوارزمية لا تتمتع بالشفافية وليس لها موارد بشرية، وأن يمكن تحديد أهلية الفرد للتأمين عن طريق نظم تعلم الآلة القائمة على حمضه النووي وملفاته التعريفية الرقمية المفترضة.
في هذه الحالات، على قيم من ستستند الخوارزمية؟ وممن ستؤخذ الأخلاقيات التي سيتم دمجها في الحسابات؟ وما هي أنواع البيانات التاريخية التي سوف تُستخدم؟ وهل سنتمكن من الحفاظ على الشفافية في هذه القضايا وغيرها؟ من دون وجود إجابات واضحة عن هذه الأسئلة، ودون تعريفات موحدة لماهية التحيز وما تعنيه العدالة، سيتسرب التحيز البشري والمجتمعي لا إرادياً. ويصبح هذا الأمر مقلقاً أكثر عندما لا تملك المؤسسات تمثيلاً متنوعاً لموظفيها يعكس الديموغرافية السكانية التي يخدمونها، إذ يمكن أن تؤثر نتائج هذه الخوارزميات على نحو غير متناسب على من لا ينتمون إلى هذه الديموغرافية.
إذن، كيف يمكن للمجتمع منع ذلك، أو التراجع عنه إذا حدث؟ سيكون ذلك عن طريق الانتباه إلى من يملك البيانات. ففي عالم تشكل البيانات فيه الأوكسجين الذي يغذي محرك الذكاء الاصطناعي، سيفوز من يمتلك البيانات الأكثر فائدة. وفي هذا العالم، يجب أن نحدد من سيكون حارس البوابة لأن شركات التكنولوجيا الكبرى تلعب دوراً محورياً على نحو متزايد في جميع جوانب حياتنا، ويجب أن نحدد مكان وجود الخط الفاصل بين المصالح العامة والخاصة. (في الولايات المتحدة، تكون شركات التكنولوجيا نفسها هي حراس البوابة عموماً. أما في مناطق أخرى، مثل أوروبا، فقد بدأت الحكومات بالتدخل في هذا الدور).
علاوة على ذلك، ومع استمرار الذكاء الاصطناعي في التعلم، وازدياد المخاطر عندما يتعلق الأمر بصحة الناس وثرواتهم، يجب أن يركز حراس البوابات على بعض الضوابط والتوازنات. إذ يجب عليهم الحرص على عدم استخدام الذكاء الاصطناعي للبيانات التاريخية من أجل وضع حكم مسبق على النتائج. لأنه إذا طبق الذكاء الاصطناعي على نحو غير صحيح فسيكرر أخطاء الماضي ليس إلا. ومن الضروري أن يدمج علماء البيانات والحوسبة مدخلات خبراء من المجالات الأخرى، كالاقتصاد السلوكي وعلم الاجتماع والعلوم المعرفية والتصميم المتمركز حول الإنسان مثلاً، من أجل معايرة الأبعاد غير الملموسة للعقل البشري والتنبؤ بالسياق لا النتيجة. وبذلك، يصبح إجراء عمليات التحقق من صلاحية مصدر البيانات ومالكها في سبيل الكشف عن التحيز في عدة نقاط من عملية التطوير، أكثر أهمية لتصميم نظام ذكاء اصطناعي يهدف لتوقع التفاعلات وتصحيح التحيز.
للمؤسسات دورها أيضاً، وعلى الرغم من احتمال ألا ترغب بالكشف عما يوجد داخل صناديقها السوداء، إلا أنه يجب عليها أن تكون منفتحة وشفافة في الكشف عما يحدد العدل والتحيز، أي أن تكشف عن حدود الصندوق الأسود. ومن أجل تحقيق هذا الهدف، يجب على المؤسسات اعتماد مبادئ توجيهية عالمية لإنشاء الذكاء الاصطناعي واستخدامه، كالتي اقترحتها منظمة التعاون الاقتصادي والتنمية (OECD)، وهي: "تتطلب المبادئ أن يحترم نظام الذكاء الاصطناعي حقوق الإنسان والقيم الديمقراطية والقانون، كما يجب أن يكون آمناً ومفتوحاً وواضحاً للمستخدمين. كما يجب أن يتحمل صانعو الذكاء الاصطناعي ومستخدميه المسؤولية عن تصرفاتهم وتبني الشفافية فيها". وقد طرح أستاذ تكنولوجيا الأعمال في كلية فيلانوفا للأعمال، ستيف أندريول، سؤالاً يستدعي التفكير، وهو: "ماذا لو صممنا الذكاء الاصطناعي ليكون وفياً لمبدأ واحد بسيط. وهو أنه يجب معاملة البشر بالمساواة والعدل والثبات، بغض النظر عن العمر أو الجنس أو العرق أو الأصل أو الدين أو الموقع أو الذكاء أو الدخل أو الثروة؟"
ماذا لو، بل يا ليت.
لا نطيق صبراً حتى تتم معالجة هذه المسائل، مثلاً، هناك احتمال كبير أن يزداد عدد موظفي المصارف قريباً مع استخدام الذكاء الاصطناعي. فقد أصدرت دائرة الخدمات المالية في نيويورك قواعد توجيهية جديدة تتيح لشركات التأمين على الحياة استخدام بيانات الوسائط الاجتماعية للعملاء من أجل تحديد رسومهم (ما دامت لا تميز أحداً على أحد). ومن المحتمل أن تبدأ شركات التأمين قريباً باستخدام مصادر بيانات بديلة أخرى أيضاً، لتتبع خطى العديد من شركات الإقراض الناشئة في مجال التكنولوجيا المالية. إذن، مع مواصلتنا رحلة التطور التكنولوجي، يجب أن نضمن ألا نضحي بالعدالة والشفافية باسم مكاسب الكفاءة. ويجب أن نحرص على أن نتصدى للبقع العمياء في تقنياتنا وأن نمنع تفاقم عدم المساواة، وألا يعيد التاريخ نفسه. ويجب علينا جميعاً محاسبة القادة وأخصائيي التكنولوجيا ومن يتمتعون بالسلطة الكبيرة على أفعالهم، كي تستخدم التكنولوجيا والبيانات في صالح جميع المواطنين وتحسين رفاهيتهم.
يجب أن نعمل من أجل مستقبل لا تحدد مصائرنا فيه بواسطة خوارزمية تعمل في صندوق أسود.