مع تزايد الإقبال على المساعدات الذكية وواجهات الصوت، أصبحنا نتخلى عن نوع جديد من أنواع البيانات ذات الطابع الشخصي، ألا وهو أحاديثنا. وأضحى هذا التخلي يتجاوز مجرد الكلمات التي نقولها بصوت عالٍ. فماذا عن أخلاقيات الأجهزة الذكية التي يتم استخدامها؟
إن الكلام يكمن في صميم تفاعلاتنا الاجتماعية، ونكشف دون قصد عن الكثير عن أنفسنا عندما نتحدث. وعندما يسمع أحدنا صوتاً ما، نحاول على الفور تمييز لهجة المتكلم ونبرة صوته ونضع افتراضات حول عمره ومستوى تعليمه وشخصيته، وما إلى ذلك. وينطوي هدف البشر من القيام بذلك في التفكير في أفضل طريقة للرد على الشخص الذي يتحدث.
اقرأ أيضاً: أصحاب السلطة يستجيبون للحوافز على نحو غير أخلاقي أكثر من غيرهم
ولكن ماذا يحدث عندما تبدأ الأجهزة تحليل طريقة كلامنا؟ تحجم الشركات التكنولوجية الكبرى عن الإفصاح عما تخطط للكشف عنه بأصواتنا بالضبط ونيّتها من هذا الكشف، إلا أن شركة أمازون تمتلك براءة اختراع تسرد مجموعة من الخصائص التي قد تجمعها من تحليل أحاديثنا بما في ذلك الهوية ("النوع الاجتماعي والعمر والأصل العرقي وغير ذلك") والصحة ("التهاب الحلق والمرض وغير ذلك") والمشاعر ("السعادة والحزن والتعب والنعس والحماس وغير ذلك").
ويشعرني هذا الأمر بالقلق، ويجب أن يُشعرك أنت أيضاً بالقلق، لأن خوارزميات هذه التقنيات تفتقر إلى الكمال. ومن الصعب تحليل الصوت بشكل خاص لأن الإشارات التي تصدر عن البشر غير متناسقة وغامضة. علاوة على ذلك، تعتبر الاستنتاجات التي يتوصل إليها البشر مشوهة بفعل الأفكار النمطية السائدة. لنأخذ مثال محاولة تحديد الميول العاطفية بهدف توضيح ذلك. يوجد أسلوب للتحدث ينطوي على إصدار نبرات صوت مرتفعة ونغمات هجومية يفترض بعض الأفراد أنها تشير إلى رجل شاذ. ولكن غالباً ما ينشأ الالتباس نظراً لوجود بعض الرجال والنساء الذين يتخذون من هذا النمط أسلوباً للتحدث، في حين يتحدث العديد من الشواذ بأسلوب طبيعي. وتظهر التجارب العلمية أن "جهاز تحديد ميول البشر العاطفية" السمعي دقيق حوالي 60% من المرات. وأظهرت الدراسات التي أجريت على الآلات التي تحاول اكتشاف الميل العاطفي من صور الوجه نسبة نجاح بلغت حوالي 70%. هل يبدو ذلك مثيراً للإعجاب؟ لا يبدو كذلك بالنسبة لي، لأن هذا يعني أن هذه الآلات خاطئة بنسبة 30% من الحالات. وأتوقع أن تكون معدلات النجاح أقل حتى بالنسبة للأصوات، لأن الطريقة التي نتحدث بها تتغير حسب الشخص الذي نتحدث إليه. ويمتاز تشريحنا الصوتي بأنه مرن للغاية، إذ يسمح لنا بأن نغير أصواتنا دون وعي لتتناسب بشكل أفضل مع الشخص الذي نتحدث معه.
أخلاقيات الأجهزة الذكية
يجب علينا أن نشعر بالقلق أيضاً إزاء الشركات التي تجمع معلومات ناقصة عن الخصائص الأخرى المذكورة في براءة اختراع شركة "أمازون"، بما في ذلك النوع الاجتماعي والأصل العرقي، إذ ستتعلم أمثلة الكلام المستخدمة لتدريب تطبيقات التعلم الآلي التحيزات المجتمعية. وقد شهدنا ذلك بالفعل في تقنيات أخرى مماثلة. اكتب العبارة التركية (O bir hemşire) "هذه ممرضة / هذا ممرض" و(O bir doctor) "هذه طبيبة / هذا طبيب" على مترجم جوجل وستلاحظ ترجمة كلمة الممرضة بصيغة المؤنث وكلمة الطبيب بصيغة المذكر. وعلى الرغم من أن حرف "o" (هو / هي) هو ضمير غائب محايد من حيث النوع الاجتماعي في اللغة التركية، تولّد الافتراض أن الطبيب هو ذكر والممرضة هي أنثى لأن البيانات المستخدمة لتدريب خوارزمية الترجمة تشوبها حالات التحيز ضد المرأة في الوظائف الطبية. وتمتد هذه المشكلات أيضاً إلى العرق، حيث أظهرت إحدى الدراسات حول البيانات النموذجية المستخدمة للتعلم الآلي ذكر الأسماء الأميركية الأفريقية في كثير من الأحيان إلى جانب الكلمات البغيضة مثل "الكراهية" و"الفقر" و"القبيح"، على عكس الأسماء الأميركية الأوروبية التي تميل إلى أن تُذكر في كثير من الأحيان مع كلمات لطيفة مثل "الحب" و"محظوظ" و"سعيد".
اقرأ أيضاً: لماذا تُعد أماكن العمل التي تتسم بالمصداقية أكثر تمسكاً بالقيم الأخلاقية؟
الشركات التكنولوجية الكبرى تريد تصميم أجهزة صوتية تعمل بشكل أفضل، وهذا يعني تمكنهم من فهم طريقة كلامنا. ومع ذلك، قد يتغير معنى عبارة بسيطة مثل "أنا بخير" كلياً إذا غير الفرد نبرة صوته الحيادية إلى النبرة الغاضبة. لكن أين ستضع الشركات الحد الفاصل؟ على سبيل المثال، من المحتمل أن يبدأ المساعد الذكي الذي يكتشف الغضب فهم الكثير عن كيفية تعاملك مع زوجتك من خلال الاستماع إلى نغمة صوتك. هل سيبدأ "جوجل" بعد ذلك في عرض إعلانات حول الاستشارات الزوجية عندما يكتشف علاقة مضطربة؟ أنا لا أقترح أن يقوم شخص ما بذلك عن عمد. إلا أن الأمر المهم في أنظمة التعلم الآلي المعقدة هذه هو أن هذه الأنواع من المشكلات تنشأ عادة بطرق غير متوقعة وغير مقصودة. وتتمثل الأخطاء الأخرى التي قد يرتكبها الذكاء الاصطناعي في اكتشاف لهجة حادة والتوصل إلى استنتاج مفاده أن المتحدث تلقى تعليماً أقل لأن بيانات التدريب قد تشوهت بفعل الصور النمطية المجتمعية. ومن الممكن أن يقود ذلك مكبر الصوت الذكي إلى تبسيط الردود بالنسبة لأولئك الذين يتمتعون بلهجات صوت حادة. وبالتالي، يجب أن تكون الشركات التكنولوجية أكثر ذكاءً حول كيفية تجنب مثل هذه التحيزات في أنظمتها. ووردت بالفعل أمثلة مقلقة حول استخدام التحليل الصوتي على خطوط هاتف الأفراد المطالبين بالاستحقاقات للكشف عن الادعاءات الزائفة المحتملة. كما أهدرت حكومة المملكة المتحدة 2.4 مليون جنيه استرليني على نظام كشف الكذب عن طريق الصوت ليتبين أن النظام كان غير قادر على العمل من الناحية العلمية.
وتكمن المشكلة الأخيرة في استهتار الكثير من الأفراد بالقرب من هذه الأجهزة. وقد لاحظت "أمازون" بالفعل قيام العديد من الأشخاص بإجراء محادثات حقيقية مع أليكسا يفصحون فيها عن مشاعرهم إلى حد الاعتراف بحبهم للتكنولوجيا: "أنا أحبك يا أليكسا". إن إضافة الخطاب إلى جهاز ما يوحي بلعب هذا الجهاز دور الوسيط، وهو ما يزيد من احتمال قيامنا بتجسيد التكنولوجيا والشعور بالأمان عند الكشف عن المعلومات الحساسة. وقد يتطلب الأمر بعض الوقت فقط قبل حدوث خرق أمني كبير للبيانات الصوتية. لهذا السبب، بدأ الباحثون للتو في تطوير خوارزميات لمحاولة تصفية المعلومات الحساسة. على سبيل المثال، يمكنك ضبط الجهاز على خاصية "كتم الميكروفون" على مكبر الصوت الذكي عندما تذكر اسم البنك الذي تتعامل معه لمنعك من الكشف عن تفاصيل حسابك المصرفي دون قصد، أو عند ذكرك كلمات ذات طبيعة عاطفية.
ما هي مواقف المستهلكين تجاه الخصوصية عندما يتعلق الأمر بالمساعدات الذكية؟ وجدتُ دراسة وحيدة منشورة حول هذا الموضوع صادرة عن جامعة "ميشيغان". لقد أظهرت هذه الدراسة عدم مبالاة مالكي التقنية بحصول أمناء الشركات مثل "جوجل" و"أمازون" على المزيد من البيانات عنهم. إذ أوضح فلوريان شوب أحد مؤلفي الدراسة قائلا: "أجد أن ذلك أمراً يثير القلق بالفعل، حيث تقلل هذه التقنيات من توقعات الأفراد حول الخصوصية ببطء. كما أن الضوابط الحالية للخصوصية لا تلبي احتياجات الأفراد". لم يدرك معظم الأشخاص في الدراسة أن الهدف من تحليل بياناتهم كان عرض الإعلانات المستهدفة عليهم، وأبدوا انزعاجهم من استخدام أوامرهم الصوتية بهذه الطريقة عند إدراكهم الغاية من هذه الدراسة.
اقرأ أيضاً: هل تستخدم شركتك بيانات الموظفين بطريقة أخلاقية؟
ولكن يمكن للمستهلكين أيضاً قلب موازين التكنولوجيا لصالح تحقيق أهدافهم الخاصة. حيث قام أحد الأشخاص في دراسة جامعة "ميشيغان" بمراجعة سجلات الصوت على جهاز "أمازون إيكو" الخاص بهم للتحقق من طريقة تفاعل ربات المنازل مع هذه التقنية. ومن الممكن لهذه الأجهزة أيضاً فتح بعض قنوات الإقناع الجديدة في المستقبل. إذا كنتِ تعتقدين أن هناك حاجة إلى استبدال غسالتك بغسالة أخرى جديدة لكن زوجك لا يوافق على استبدالها، فكل ما عليك فعله هو إجراء بحث صوتي عن نماذج الغسالات المحتملة بالقرب من مكبر الصوت الذكي، ليواجه زوجك وابلاً من الإعلانات التي لا حصر لها عن الغسالات الجديدة.
لقد اعتدنا في مجال الأعمال توخي الحذر بشأن أخلاقيات الأجهزة الذكية وما نكتبه في رسائل البريد الإلكتروني لئلا تزل يدنا ونفصح عن معلومات حساسة. كما أننا بحاجة إلى تطوير موقف حذر مماثل عند إجراء محادثات حساسة قريبة من الأجهزة المتصلة. ومن المؤكد أن الجهاز الوحيد الآمن تماماً للتحدث أمامه هو الجهاز الذي أوقف تشغيله.
اقرأ أيضاً: المعضلة الأخلاقية في قلب شركات التقنية الكبرى