هل يضع الذكاء الاصطناعي مصلحة مستخدميكم في صميم اهتمامه؟

5 دقائق
الذكاء الاصطناعي ومصلحة المستخدم

ليس من السهل اتخاذ قرارات تراعي البعد الأخلاقي لاسيما في ما يتعلق بالذكاء الاصطناعي ومصلحة المستخدم. ولقد صار اتخاذ مثل هذه القرارات أصعب في الوقت الحالي. فالآلات الذكية والحوسبة رخيصة الكلفة والكميات الهائلة من بيانات المستهلكين لا توفر فقط فرصاً رائعة للشركات الحديثة، بل تطرح أيضاً معضلة أخلاقية أمام قادة القرن الحادي والعشرين: فهل تسير الأمور على ما يُرام طالما أن الشركة ملتزمة بنصوص القانون؟

بالطبع لن يكون هناك نقص في التشريعات والقوانين في السنوات المقبلة. لقد باتت شركات التكنولوجيا تشبه في نظر السياسيين الطموحين وواضعي القوانين شركات التبغ الكبيرة التي يمكن أن تتصدر أخبارها نشرات الأخبار الرئيسية بعناوين من قبيل فرض غرامات قياسية أو تفكيك قسري ومداهمة عند الفجر أو إثارة الغضب الشعبوي. ومع ذلك، فإن مجرد اتباع القواعد بالنسبة للقادة الذين يبحثون عن بوصلة يسترشدون بها في عصر الخوارزميات، لم يكن أبداً أكثر خطورة، ولا أكثر قصوراً من الناحية الأخلاقية.

لا أريد أن يُساء فهمي: يتطلب عالم مضطرب من الذكاء الاصطناعي والمنتجات التي تعتمد على البيانات أنظمة وتشريعات قوية. وبالنظر إلى سلسلة مخالفات البيانات وانتهاكاتها في السنوات الأخيرة، فإن شعار جوجل السابق غير الرسمي: "لا تكن شريراً"، يبدو حالياً وكأنه كان قادراً على التنبؤ بالغيب وساذجاً في الوقت نفسه. ونظراً لأننا نعد أنظمة أكثر قدرة على فهم واستهداف الخدمات على مستوى المستخدمين الفرديين، فستزداد باضطراد قدرتنا على ارتكاب أمور سيئة عن طريق أتمتة التحيز وتحويل الخوارزميات إلى أسلحة. ومع ذلك، يطرح هذا أيضاً سؤال حول ما هو بالضبط ما نعتبره شريراً؟ هل هو خرق القانون، أم خرق مدونة قواعد السلوك المتبعة في القطاع الذي تنشط فيه، أم انتهاك ثقة المستخدم؟

التحيز الخوارزمي

يمكن أن يتخذ التحيز الخوارزمي أشكالاً متعددة، فهو ليس واضحاً تماماً على الدوام مثل العنصرية في إصدار الأحكام الجنائية أو التمييز على أساس النوع الاجتماعي عند التوظيف. وفي بعض الأحيان تكون المبالغة في قول الحقيقة بنفس القدر من الخطورة. في عام 2013، نشر الباحثون ميشيل كوزينسكي وديفيد ستيلويل وثور غرابيل ورقة بحث أكاديمية أظهرت أن "الإعجابات" على فيسبوك (التي كانت متاحة للعموم أساساً في ذلك الوقت) يمكن استخدامها للتنبؤ بمجموعة من السمات الشخصية الحساسة للغاية، بما في ذلك الميول الجنسية والنوع الجنسي والعرق والآراء الدينية والسياسية وسمات الشخصية وتعاطي المواد المسببة للإدمان وحالة الانفصال بين الأهل والعمر.

ومما يثير القلق، أنه حتى وإن لم تكشف عن ميولك الجنسية أو تفضيلاتك السياسية، يمكن أن يظل من الممكن توقع هذه المعلومات إحصائياً بناء على ما أفصحت عنه. لذلك، ففي حين أن أقل من 5% من المستخدمين الذين تم تحديدهم على أنهم كانوا مرتبطين بمجموعات تصرح عن ميول غريبة، فقد ظل من الممكن استنتاج تفضيلهم. عندما نشروا دراستهم، أقر الباحثون بأن نتائجهم قد تتعرض لسوء الاستخدام من قبل أطراف ثالثة للتحريض على التمييز، على سبيل المثال. ومع ذلك، فحيث رأى آخرون الخطر والمخاطر، رأى ألكسندر كوجان، أحد زملاء كوزينسكي في جامعة كامبريدج، أن هناك فرصة. وفي أوائل عام 2014، وقَّعت "كامبريدج أناليتيكا" (Cambridge Analytica)، وهي شركة استشارات سياسية بريطانية، اتفاقاً مع كوجان لمشروع خاص يستفيد من أعمال كوزينسكي وفريقه.

تمكن كوجان من إعداد اختبار، وذلك بفضل مبادرة في فيسبوك سمحت لأطراف خارجية بالوصول إلى بيانات المستخدم. ويقدر عدد المستخدمين الذين شاركوا في هذا الاختبار بحوالي 300,000 مستخدم. وتبين لاحقاً أن كامبريدج أناليتيكا استغلت بعدها البيانات التي جُمعت بفضل الاختبار للوصول إلى وبناء ملفات تعريف عن 87 مليون مستخدم على فيسبوك. يمكن أن نقول جدلاً إن لا قرارات فيسبوك ولا كامبريدج أناليتيكا كانت غير قانونية تماماً، ولكن بعد ما حصل وفي سياق الفضيحة التي سرعان ما سببها البرنامج، يصعب أن يُقال إنها كانت قرارات حكيمة.

ووفقاً لجوليان ويتلاند، مدير العمليات في كامبريدج أناليتيكا في ذلك الوقت، فإن الخطأ الأكبر الذي ارتكبته الشركة هو الاعتقاد بأن الامتثال للتشريعات الحكومية كان كافياً وتجاهلت بالتالي المسائل الأوسع المتعلقة بأخلاقيات استخدام البيانات والتحيز وصورة الشركة لدى الرأي العام.

كيف كنت ستتعامل مع وضع مماثل؟ هل كان خطأ فيسبوك مضاعفاً لأن الشركة لم تصغ السياسات الصحيحة للتعامل مع بيانات مستخدميها مقدماً، وشاركت تلك المعلومات بشكل مفتوح للغاية مع شركائها؟ هل كان عليها أن تتوقع رد فعل أعضاء مجلس الشيوخ الأميركي الذين دعوا في النهاية إلى جلسة استماع في الكونغرس، وأن تنفق المزيد من الموارد على جماعات الضغط؟ هل كان اعتماد اتفاق ترخيص للمستخدم أكثر شمولية سيحمي فيسبوك من المساءلة؟ أم أن ما حدث حالة يمكن أن تُعزى إلى سوء الحظ؟ هل كان توفير بيانات البحث لكوجان إجراءً معقولاً وجِب اتخاذه في ذلك الوقت؟

لنأخذ في المقابل شركة آبل. عندما صعد تيم كوك على المنصة للإعلان عن أحدث وأهم منتجات آبل لعام 2019، كان واضحاً أن التركيز الحقيقي ينصب حالياً على حماية خصوصية وأمان المستخدم، أكثر منه على التصميم والسرعة. وبدءاً من التخلص من التقييم البشري لطلبات برمجية المساعد الشخصي "سيري" (Siri) إلى التحذير من أي هي التطبيقات التي تتتبع موقعك، كانت آبل تحاول تحويل الأخلاقيات الرقمية من نطاق المجال القانوني إلى عالم الميزة التنافسية.

الانتقادات التي توجه للشركات الكبرى

على مدار العقد الماضي، تعرضت آبل لانتقادات لاتخاذها موقفاً مخالفاً بشأن العديد من القضايا مقارنة بمثيلاتها مثل فيسبوك وجوجل. بخلافهما، تعتمد آبل منظومة بيئية مغلقة ذات ضوابط مشددة: لا يمكنك تحميل برمجية على جهاز آيفون إذا لم تكن قد حصلت تلك البرمجية على ترخيص من آبل. كانت الشركة أيضاً واحدة من أوائل الشركات التي شفّرت أجهزتها بالكامل، بما في ذلك استخدام التشفير بين الطرفيات على آي-مسج (iMessage) وفيس تايم (FaceTime) للاتصالات بين المستخدمين. فعندما طلب مكتب التحقيقات الفيدرالي (FBI) كلمة مرور لفتح هاتف آيفون، رفضت آبل وتوجهت إلى المحكمة للدفاع عن حقها في ذلك. وعندما أطلقت الشركة خدمة آبل باي (Apple Pay) ومؤخراً بطاقة الائتمان الجديدة الخاصة بها، حافظت على خصوصية معاملات العملاء بدلاً من تسجيل جميع البيانات لإجراء تحليلاتها الخاصة.

على الرغم من أن إجراءات فيسبوك اتبعت على الأرجح ما ينص عليه القانون وكانت ضمن حدود الممارسات المعتمدة في القطاع، إلا أن تركيزها لم يكن ينصب في ذلك الوقت على الحفاظ على مصلحة المستخدمين. وقد يكون سبب ذلك بسيطاً. فآبل تبيع منتجاتها للمستهلكين. أما لدى فيسبوك، فالمستهلك هو المنتَج. فالشركة تبيع مستخدميها للمعلنين.

ومن ثم فإن حظر جمع كل البيانات ليس مجدياً بالنسبة لها. ولا مجال للتراجع عن ذلك. نحن نعيش بالفعل في عالم مبني على التعلم الآلي والذكاء الاصطناعي، عالم يعتمد على البيانات كوقود له، وسوف يكون في المستقبل ركيزة كل شيء من الزراعة الدقيقة إلى الرعاية الصحية الشخصية. حتى أنه سيكون بوسع الجيل القادم من المنصات التعرف على عواطفنا وقراءة أفكارنا.

وبدلاً من الاعتماد على اللوائح والأنظمة، يجب على القادة السير بتؤدة على حبل أخلاقي مشدود. يتوقع منك عملاؤك استخدام بياناتهم لتوفير خدمات شخصية لهم وتوقع ما قد يرغبون به بينما يطالبونك بمنع الاستخدام غير السليم لمعلوماتهم والتلاعب معها. وفيما تبحث عن بوصلتك الأخلاقية، هناك مبدأ واحد عليك أن تتبعه بوضوح، وهو أنه لا يمكنك أن تلبي طلبات سيدين. وفي النهاية، عليك إما أن تتبنى ثقافة تستند إلى اتباع القانون، أو تركز على تمكين المستخدمين. قد يبدو الاختيار سهلاً، لكنه أكثر تعقيداً من الناحية العملية. إن النظر إليك على أنك تفعل ما هو جيد يختلف بالفعل عن أن تكون جيداً.

هذا على الأقل أحد الأمور الإيجابية عندما يتعلق الأمر بالتهديد الذي تمثله الروبوتات في أن تتولى يوماً وظائفنا. من يمكنه أن يفعل أفضل من البشر أنفسهم لدى وزن الأحكام الأخلاقية المعقدة والدقيقة والصعبة؟ يمكن لأي جهاز تحديد الإجراء الصحيح من بين مجموعة من التشريعات المتعلقة بالذكاء الاصطناعي ومصلحة المستخدم، ولكن معرفة وفهم ما هو في الواقع جيد هو أمر بشري بطبيعته.

اقرأ أيضاً:

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

المحتوى محمي