ملخص: يحمل الذكاء الاصطناعي أملاً كبيراً بزيادة جودة الرعاية الصحية وتقليل تكلفتها في البلدان المتقدمة والنامية. لكن إحدى العقبات أمام استخدامه هي عدم ثقة المرضى به. وجد الباحثون أن أحد الأسباب الرئيسية وراء ذلك هو أن المرضى ينظرون إلى الذكاء الاصطناعي في المجال الطبي على أنه صندوق أسود، ويعتقدون أنهم يعرفون عن عملية صنع القرار التي يقوم بها الأطباء أكثر مما يعرفونه بالفعل. والحل هو تقديم توضيح للمرضى لكيفية صناعة كلا نوعي مقدمي الرعاية الصحية للقرارات، فماذا عن موضوع ثقة المرضى بتطبيقات الذكاء الاصطناعي تحديداً؟
أصبحت تطبيقات الرعاية الصحية المدعومة بالذكاء الاصطناعي المستخدمة في الرعاية التشخيصية متاحة على نطاق واسع للمستهلكين، بل ويمكن أيضاً الوصول إلى بعضها من خلال الهواتف الذكية. على سبيل المثال، أعلنت "جوجل" مؤخراً دخولها إلى هذه السوق بأداة قائمة على الذكاء الاصطناعي تساعد الأشخاص في التعرف على حالة الجلد والشعر والأظافر. ومع ذلك، هناك عائق رئيسي أمام اعتماد هذه التكنولوجيات وهو أن المستهلكين يميلون إلى الثقة بتكنولوجيات الذكاء الاصطناعي المستخدمة في المجال الطبي بدرجة أقل من مقدمي الرعاية الصحية من البشر. فهم يعتقدون أن الذكاء الاصطناعي في المجال الطبي يفشل في تلبية احتياجاتهم الفريدة وأن أداءه أسوأ من مقدمي الرعاية الصحية من البشر، ويشعرون أنهم لا يستطيعون مساءلة الذكاء الاصطناعي عن الأخطاء بالطريقة نفسها التي يمكنهم بها مساءلة البشر.
تشكل مقاومة الذكاء الاصطناعي في المجال الطبي تحدياً لواضعي السياسات الذين يرغبون في تحسين الرعاية الصحية والشركات التي تبيع خدمات صحية مبتكرة. لذا، يقدم بحثنا رؤى يمكن الاستفادة منها للتغلب على هذه المقاومة.
في دراسة نُشرت مؤخراً في مجلة "نيتشر هيومان بيهيفيور" (Nature Human Behaviour)، أوضحنا أن تبني المستهلكين للذكاء الاصطناعي في المجال الطبي يتعلق بتصوراتهم السلبية عن تطبيقات الرعاية الصحية المعتمدة على الذكاء الاصطناعي بقدر ما يتعلق بوجهات نظرهم الإيجابية غير الواقعية عن مقدمي الرعاية الصحية من البشر. إذ يتردد المستهلكون في الاعتماد على تطبيقات الرعاية الصحية القائمة على الذكاء الاصطناعي لأنهم لا يعتقدون أنهم يفهمون بموضوعية كيف يصنع الذكاء الاصطناعي القرارات الطبية؛ فهم ينظرون إلى عملية صناعة القرار التي يستخدمها الذكاء الاصطناعي على أنها صندوق أسود. ويتردد المستهلكون أيضاً في استخدام الذكاء الاصطناعي ضمن المجال الطبي لاعتقادهم الخاطئ بأنهم يفهمون جيداً كيفية صناعة البشر للقرارات الطبية.
ثقة المرضى بتطبيقات الذكاء الاصطناعي
يُظهر بحثنا، الذي يتكون من 5 تجارب أُجريت عبر الإنترنت على عينات ممثلة وملائمة على الصعيد الوطني مكونة من 2,699 شخصاً ودراسة ميدانية عبر الإنترنت حول "إعلانات جوجل"، مدى ضآلة فهم المستهلكين للطريقة التي يتوصل بها الذكاء الاصطناعي المستخدم في المجال الطبي إلى استنتاجاته. على سبيل المثال، اختبرنا مدى معرفة العينات الممثلة على الصعيد الوطني من الأميركيين بكيفية صناعة تطبيقات الرعاية الصحية القائمة على الذكاء الاصطناعي للقرارات الطبية، مثل تحديد ما إذا كانت شامة ظاهرة على الجلد خبيثة أم حميدة. لم يكن أداء المشاركين أفضل مما سيكون عليه لو كانوا خمنوا الإجابة؛ فقد تكون النتيجة مماثلة إذا اختاروا الإجابات بشكل عشوائي. لكن المشاركين أدركوا مدى جهلهم؛ فقد صنفوا فهمهم لكيفية صناعة تطبيقات الرعاية الصحية المعتمدة على الذكاء الاصطناعي للقرارات الطبية بأنه منخفض.
على النقيض من ذلك، بالغ المشاركون في تقدير مدى فهمهم لكيفية صناعة الأطباء البشريين للقرارات الطبية. على الرغم من أن فهم المشاركين في تجاربنا للقرارات التي يتخذها كلا نوعي مقدمي الرعاية الصحية كان محدوداً، فقد زعموا أنهم يفهمون على نحو أفضل عملية صنع القرارات البشرية.
في إحدى التجارب، طلبنا من عينة ممثلة على الصعيد الوطني عبر الإنترنت ومكونة من 297 من سكان الولايات المتحدة الإفادة بمدى فهمهم لكيفية قيام الطبيب أو الخوارزمية بفحص صور لبشرتهم لاكتشاف آفات الجلد السرطانية. ثم طلبنا منهم شرح عمليات صنع القرار التي يقوم بها البشر أو الخوارزميات. (هذا النوع من الأنشطة استُخدم من قبل لتحطيم المعتقدات الوهمية حول مدى فهم الشخص للعمليات السببية. على سبيل المثال، يعتقد معظم الناس أنهم يفهمون كيفية عمل المروحية. ولكنهم لا يدركون أنه ليس لديهم أدنى فكرة عن كيفية عملها إلا عندما تطلب منهم شرح ذلك).
بعد أن حاول المشاركون الشرح، قيّموا فهمهم لعملية صناعة القرار الطبي البشري أو الخوارزمي مرة أخرى. وقد وجدنا أن إجبار المشاركين على شرح عمليات صنع القرار لدى كلا نوعي مقدمي الرعاية الصحية قلل من مدى شعور المشاركين بأنهم يفهمون القرارات التي يتخذها مقدمو الرعاية الصحية من البشر لكنه لم يؤثر في فهمهم للقرارات التي تتخذها الخوارزميات. وذلك لأن فهمهم الشخصي لكيفية صناعة الأطباء للقرارات كان مبالغاً فيه، ولكن لم يتأثر فهمهم الشخصي لكيفية صناعة تطبيقات الرعاية الصحية المعتمدة على الذكاء الاصطناعي للقرارات بالحاجة إلى تقديم شرح، ربما لأنهم شعروا بالفعل أن عملية صنع القرار لدى تطبيقات الرعاية الصحية المعتمدة على الذكاء الاصطناعي كانت مثل الصندوق الأسود بالنسبة إليهم.
وفي تجربة أخرى، مع عينة ممثلة على الصعيد الوطني من 803 أميركيين، قسنا مدى شعور الأشخاص بفهمهم لعمليات صنع القرارات البشرية أو الخوارزمية لتشخيص سرطان الجلد، ثم اختبرناهم لمعرفة مدى نجاحهم في فهمها. للقيام بذلك، وضعنا اختباراً بمساعدة خبراء طبيين: فريق من أطباء الأمراض الجلدية في إحدى كليات الطب في هولندا وفريق من مطوري تطبيق شهير لاكتشاف سرطان الجلد في أوروبا. ووجدنا أنه على الرغم من أن المشاركين أفادوا بأن فهمهم للقرارات الطبية التي تتخذها الخوارزميات أضعف من فهمهم للقرارات التي يتخذها مقدمو الرعاية الصحية من البشر، فإن فهمهم للقرارات التي يتخذها كلا النوعين كان محدوداً بالقدر نفسه.
ما الذي يمكن لواضعي السياسات والشركات فعله لتشجيع المستهلكين على استخدام تطبيقات الذكاء الاصطناعي في المجال الطبي؟
وجدنا نشاطين ناجحين ومختلفين قليلاً وتضمنا شرح كيفية صناعة كلا نوعي مقدمي الرعاية الصحية للقرارات الطبية. في إحدى التجارب، أوضحنا كيف يستخدم كلا النوعين إطار "أيه بي سي دي" (ABCD) (وهي الحروف الأربعة الأولى من الكلمات الآتية: عدم التناظر (asymmetry) والحواف (border) واللون (color) والقطر (diameter)) لفحص الشامات لتقييم مخاطر الإصابة بأورام خبيثة. وفي تجربة أخرى، أوضحنا كيف يقوم كلا النوعين من مقدمي الرعاية الصحية بفحص التشابه البصري بين الشامة المستهدفة والشامات الأخرى المعروف أنها خبيثة.
نجحت هذه الأنشطة في تقليل الاختلاف في الفهم المتصور لعمليات صناعة القرارات الخوارزمية والبشرية من خلال زيادة الفهم المتصور لعملية صناعة القرارات الخوارزمية. وبالتالي، فقد أدت إلى زيادة اهتمام المشاركين بالاستفادة من تطبيقات الرعاية الصحية دون التقليل من اهتمامهم بالاستفادة من مقدمي الرعاية الصحية من البشر.
لم تكن هذه الأنشطة فعالة في التجارب المعملية فقط. ففي دراسة ميدانية على "إعلانات جوجل"، جعلنا المستخدمين يرون واحداً من إعلانين مختلفين لتطبيق يُستخدم في الكشف عن سرطان الجلد في نتائج بحثهم. لم يقدم أحد الإعلانات أي شرح لكيفية عمل الخوارزمية والآخر أوضح بإيجاز كيفية عملها. وبعد حملة استمرت 5 أيام، أدى الإعلان الذي يشرح كيفية عمل الخوارزمية إلى زيادة كل من عدد النقرات ونسبة النقر إلى الظهور.
لخدمات الرعاية الصحية المستندة إلى الذكاء الاصطناعي دور أساسي في مهمة تقديم خدمات عالية الجودة وبأسعار معقولة للمستهلكين في الدول المتقدمة والنامية. وتظهر النتائج التي توصلنا إليها حول موضوع ثقة المرضى بتطبيقات الذكاء الاصطناعي كيف أن زيادة الشفافية، من خلال فتح الصندوق الأسود للذكاء الاصطناعي، يمكن أن تساعد في تحقيق هذا الهدف بالغ الأهمية.