تعمل الحكومات في أنحاء العالم بسرعة لتشغيل الذكاء الاصطناعي في الخدمات العامة جميعها، بدءاً من إدارة المزايا والامتثال الضريبي إلى إدارة المدن وترتيب الحالات الصحية من حيث أولوية الحاجة إلى الرعاية وإشراك المواطنين. ومن المفهوم أن الكثير من النقاش العام قد ركز على التكنولوجيا نفسها وعلى الأخلاقيات وأطر الحوكمة، لكن ثمة عائقاً أهم لا يولى الاهتمام الكافي، ألا وهو قدرات القيادة المؤسسية المطلوبة لدمج الذكاء الاصطناعي وتوسيع نطاقه في أنظمة القطاع العام.
هذا ليس نقداً للمؤسسات العامة، بل اعترافاً بطبيعة التحدي. لا يختزل اعتماد الذكاء الاصطناعي على المستوى الحكومي في مجرد شراء التكنولوجيا أو الامتثال للسياسات؛ إنه تحول اجتماعي تقني معقد، يؤثر في حقوق اتخاذ القرار، وسير العمل، والمسؤولية وهوية القوى العاملة، وثقة الجمهور.
وتعكس الأدلة الحديثة حجم هذا التحدي. تتفوق منطقة الشرق الأوسط حالياً على مناطق العالم الأخرى في مستوى اعتماد الذكاء الاصطناعي، إذ أفادت نسبة كبيرة من الموظفين الذين شملهم الاستطلاع في المنطقة (75%) باستخدامهم المنتظم لأدوات الذكاء الاصطناعي في عام 2025، متجاوزين بذلك المتوسط العالمي البالغ 69%، وعلى الرغم من ذلك فهناك نقص حاد في الجاهزية، إذ توضح نحو 53% من المؤسسات أن الافتقار إلى المعرفة الداخلية والمهارات المتخصصة هو العائق الرئيسي أمام توسيع نطاق هذه الأنظمة بفعالية. على مستوى النظام، يشير التحليل إلى أن الأثر التحويلي لا يزال متفاوتاً. في حين أن الذكاء الاصطناعي يحسن الإنتاجية الداخلية لدى 80% من المستخدمين، فاستخدامه في تصميم السياسات وتحسين الخدمات المقدمة للمواطن مباشرة لا يزال يسير بخطى أبطأ مقارنة بأتمتة العمليات الداخلية.
يمثل امتلاك هذه القدرة أهمية استراتيجية مباشرة للقادة في المنطقة، إذ إن طموحات جداول أعمال التحول الوطني، بما فيها الرؤى الإقليمية المتنوعة للأعوام 2030 و2040 و2071، لا تقتصر على الناحية التكنولوجية بل تشمل الناحية المؤسسية أيضاً؛ فهي تطلب من الكيانات العامة تحديث سبل تقديم الخدمات وبناء الثقة ورفع مستوى القدرة التنافسية الوطنية.
قد يكون الذكاء الاصطناعي عامل تمكين قوياً، بيد أن تحقيق منافعه لن يعتمد بالدرجة الأولى على التنظيم أو توفر البيانات، بل على قدرة المؤسسات على بناء القدرة التنظيمية والأنظمة القيادية اللازمة لحوكمة الذكاء الاصطناعي بمسؤولية، ودمجه في عملياتها، ومواصلة التعلم عبر الزمن.
العائق الحاسم: جاهزية المؤسسات
وجد استطلاع عالمي أجري عام 2024 لمؤسسات القطاع العام أنه في حين أن أكثر من 60% من الحكومات تعتبر الذكاء الاصطناعي مهماً من الناحية الاستراتيجية، فأقل من 30% منها أفادت بدمجه في عملياتها الأساسية، حيث لا يزال معظم المبادرات في مرحلة التجريب. كما تفسر التحليلات هذا التردد في التوسع، إذ تشير إلى أن الحكومات من المرجح أن تستخدم الذكاء الاصطناعي لتحسين الكفاءة الداخلية أكثر من دعم تصميم السياسات أو اتخاذ القرارات في الخطوط الأمامية، ما يشير إلى أن جاهزية المؤسسات هي العائق الحاسم، وليس النضج الخوارزمي.
ليست دول مجلس التعاون الخليجي بمنأى عن تحديات جاهزية المؤسسات هذه. حققت دول في المنطقة مثل المملكة العربية السعودية ودولة الإمارات العربية المتحدة تصنيفات عالية جداً في استطلاع الأمم المتحدة للحكومة الإلكترونية، ونشرت منصات خدمات رقمية متطورة "تطبيقات فائقة" مثل تطبيق "تم" في أبوظبي، الذي يحل الغالبية العظمى من طلبات الخدمات من خلال سير العمل المؤتمت والمدعوم بالذكاء الاصطناعي. ومع ذلك، لا يزال توسيع نطاق الذكاء الاصطناعي إلى ما هو أبعد من التطبيقات التجريبية يصطدم بنقص القدرات المؤسسية، وتشير الأدلة المستقاة من دراسات القوى العاملة عبر القطاعات والدراسات التنظيمية في المنطقة إلى استمرار نقص التدريب والجاهزية حتى في البيئات الرقمية المتقدمة. بالنسبة لدول مجلس التعاون الخليجي، يعتمد النجاح في عام 2026 وما بعده على الانتقال من "الجاهزية المادية" إلى "الجاهزية السيادية"، بما يضمن أن الاستثمارات الضخمة في البنية التحتية تقابلها قدرة مؤسسية على حوكمة الذكاء الاصطناعي واستخدامه في صنع السياسات المعقدة بدلاً من مجرد الأتمتة الإدارية.
تعزز هذه الأدلة الحجة القائلة بأن العائق الأكبر أمام اعتماد الذكاء الاصطناعي على المستوى الحكومي هو امتلاك القدرة التنظيمية وليس امتلاك التكنولوجيا، لأن المؤسسات تواجه صعوبة في التوفيق بين أربع حقائق:
- المساءلة مبدأ ثابت: يجب أن تكون القرارات العامة قابلة للتفسير والطعن ومنصفة.
- التنسيق أصعب من الابتكار: مع دخولنا عصر الذكاء الاصطناعي الوكيل (الأنظمة القادرة على العمل بصورة مستقلة) يتطلب النجاح تدفقاً للبيانات بين المؤسسات وسلطة مشتركة في اتخاذ القرار، وهو ما لا يمكن للأقسام التقليدية المنعزلة دعمه.
- تكيف القوى العاملة يمثل تحدياً للنظام: يحتاج الموظفون العامون إلى الدعم لدمج الذكاء الاصطناعي في الممارسة دون فقدان الحكمة المهنية؛ في الوقت الحالي، يتوقع ما يقرب من 49% من الموظفين الذين شملهم الاستطلاع في المنطقة أن يؤثر الذكاء الاصطناعي والروبوتات تأثيراً كبيراً في أدوارهم خلال السنوات الثلاث المقبلة.
- يجب أن يكون التعلم مستمراً: تتغير نماذج الذكاء الاصطناعي وظروف استخدامه؛ في حين تعجز أطر الحوكمة الثابتة عن مسايرتها بسرعة.
من خلال بحثي وعملي في مجال تطوير كبار قادة القطاع العام الذين يتولون خطط التحول الوطني، لاحظت نمطاً متكرراً: الاتفاق على طموح تبني الذكاء الاصطناعي دون امتلاك القدرة المؤسسية المطلوبة لتوسيع نطاقه. وتوفر هذه الحقائق مجتمعة طريقة عملية للقادة لمعرفة المواضع التي من المرجح أن تتعثر فيها مبادرات الذكاء الاصطناعي، في مرحلة مبكرة جداً تسبق حتى ظهور أي عقبة تكنولوجية.
إطار الجاهزية المؤسسية للذكاء الاصطناعي في القطاع العام
يركز معظم مقالات القيادة في عصر الذكاء الاصطناعي على المهارات الفردية. وفي حين أن المعرفة التقنية مهمة، فنجاح الذكاء الاصطناعي على المستوى الحكومي يعتمد على استيعاب أنظمة القيادة للتغيير الاجتماعي والتقني وحوكمته على نطاق واسع. لقد اعتمدت الكيانات العامة فترة طويلة جداً على نموذج "الأولوية للمشتريات"، حيث يعتبر تطبيق الذكاء الاصطناعي عملية تسليم منفصلة وجاهزة لا عملية بناء تراكمية للقدرات المؤسسية.
وقد حدد بحث الدكتوراة الذي أجريته "التكاليف البشرية غير المباشرة"، وهي عبارة عن عوائق تنظيمية غير مدرجة في الميزانية، مثل غموض الأدوار واضطراب الهوية المهنية والإجهاد التنظيمي، باعتبارها عاملاً متكرراً للفشل في تبني التكنولوجيا على نطاق واسع. هذه العوامل غير مدرجة في الميزانية وغير ملموسة، مثل غموض الأدوار واضطراب الهوية المهنية والإجهاد التنظيمي، ولا يمكن حلها من خلال التطبيق التقني وحده. على الرغم من أن الأبحاث حول الرؤساء التنفيذيين المستقلين قد أجريت قبل الموجة الحالية من الذكاء الاصطناعي، فقد ازدادت أهميتها، إذ تؤدي أنظمة الذكاء الاصطناعي إلى مستويات أعلى من التعقيد وعدم اليقين والاضطراب التنظيمي مقارنة بالتكنولوجيات الرقمية السابقة، ما يزيد أهمية الجوانب الاجتماعية التقنية؛ القيادة والثقافة والحوكمة والتعلم.
في عام 2026، ومع انتقالنا من الذكاء الاصطناعي التوليدي إلى الذكاء الاصطناعي الوكيل، تحولت متطلبات القيادة من الإشراف على الأنظمة إلى إعادة تصميم طرق تطبيق السلطة والحكمة البشرية والمساءلة في أنحاء المؤسسة جميعها. ولمواجهة هذا التحدي، يجب على القادة تعزيز أربعة مجالات مؤسسية كلية:
1. الحوكمة الاستراتيجية والأخلاقية للذكاء الاصطناعي
وهي القدرة المؤسسية على تحديد التوجيه والإشراف بما يتماشى مع الثقة العامة. وتشمل في الممارسة العملية ما يلي:
- وضع الحدود: تحديد المجالات التي ينبغي فيها استخدام الذكاء الاصطناعي في الخدمة العامة أو عدم استخدامه.
- تحديد المسؤولية: تحديد حقوق اتخاذ القرار بحيث تكون الأدوار المحددة، وليس الأنظمة، مسؤولة عن الإجراءات التي يدعمها الذكاء الاصطناعي وتؤثر في المواطنين.
- تفعيل الشفافية: الانتقال من نموذج "الاستجابة للطلب" إلى نموذج "الخدمة الاستباقية"، حيث تعمل الأنظمة المدعومة بالذكاء الاصطناعي على تقديم الخدمات للمواطنين بناء على أحداث حياتية جرى التحقق منها.
الأفضلية الاستراتيجية: حماية الشرعية الوطنية من خلال ضمان عمل وكلاء الذكاء الاصطناعي ضمن إطار حوكمة بشرية واضحة وقابلة للمراجعة. تمثل الحوكمة قدرة قيادية تخفف حدة التكاليف البشرية غير المباشرة قبل ظهورها؛ فعندما لا تكون حقوق اتخاذ القرار واضحة، تصبح المؤسسات غير قادرة على تحمل المخاطر وتتعثر المشاريع التجريبية.
2. الجاهزية التنظيمية وقيادة التغيير
الجاهزية هي القدرة على إعداد المؤسسة للتحولات في السلطة وسير العمل، وليس في التكنولوجيا فقط. وهي تشمل:
- إعادة تصميم العمليات: ضمان التكامل بين الحكمة البشرية والمخرجات الخوارزمية
- كسر العزلة: الحد من الحواجز للسماح بتدفق البيانات وتنسيق تقديم الخدمات عبر المؤسسات.
- إدارة الإجهاد التنظيمي: بناء أنظمة تشغيلية تدمج الذكاء الاصطناعي في صميم العمل اليومي الاعتيادي بدلاً من حصره في وحدات الابتكار.
الأفضلية الاستراتيجية: التخلص من "مفارقة العزلة المؤسسية" لضمان تدفق البيانات بسرعة تتماشى مع أولويات الدولة. الجاهزية المؤسسية هي الفارق الحاسم بين مجرد التجريب والدمج الحقيقي والفعال.
3. تصميم نظام رأس المال البشري والمواهب
تستثمر مؤسسات عديدة في الأنظمة، لكنها تقلل أهمية ما ينبغي للبشر فعله للإشراف على تلك الأنظمة ونقدها بمسؤولية. يتطلب ذلك في عام 2026 تحولاً نحو الإشراف المؤسسي: قيادة قوة عاملة مختلطة من البشر والوكلاء المستقلين، والتعامل مع الذكاء الاصطناعي باعتباره "زميل عمل" وليس أداة. ويشمل ذلك:
- محو الأمية التنفيذية: يجب على القادة أن يطرحوا الأسئلة الصحيحة لتحدي مخرجات الذكاء الاصطناعي، لا أن يصبحوا خبراء تكنولوجيا.
- صقل المهارات التي يستلزمها واقع العمل: التدريب على "استخدام الذكاء الاصطناعي في سياق العمل"، أي دمج الأدوات عملياً في أدوار محددة، وليس مجرد تدريب برمجي عام.
- دعم الهوية: التصدي بشكل استباقي للإجهاد التنظيمي واضطراب الهوية المهنية.
الأفضلية الاستراتيجية: بناء أكاديميات ذكاء اصطناعي داخلية لحفظ المعرفة السيادية وضمان بقاء الكفاءات الوطنية تحت مظلة الدولة. فعندما يعامل القادة إعادة تأهيل الكوادر على أنها حملة تواصل إعلامية وليست مهمة تصميم نظام كفاءات شامل، يظل تبني التكنولوجيا هشاً وعرضة للفشل.
4. التعلم والتكيف المؤسسيان
يجب أن يشمل التعلم المؤسسي تجربة المواطن، وليس فقط أداء النظام، فأنظمة الذكاء الاصطناعي تتطور ويجب أن تتطور المؤسسات أيضاً، ويعكس هذا قدرة القيادة على التعلم من التطبيق وتكييف السياسات والممارسات والحوكمة مع مرور الوقت. وكما أكد مؤشر أوكسفورد إنسايتس للذكاء الاصطناعي الحكومي، فإن الجاهزية متعددة الأبعاد وتشمل مكونات الحوكمة والقدرات.
- وضع معايير جديدة للنجاح: قياس النتائج من حيث القيمة العامة (الجودة والإنصاف)، وليس فقط الكفاءة الإدارية.
- اليقظة: مراقبة التحيز و"انحراف النموذج" والعواقب غير المقصودة على نحو فوري.
- حلقات الملاحظات: بناء الآليات التي تجعل إعادة تصميم النظام تسترشد مباشرة بتجربة الخطوط الأمامية.
الأفضلية الاستراتيجية: تطوير القدرة على توسيع نطاق الحلول الناجحة عبر المنظومة الحكومية بأكملها.
التشخيص القيادي: تدقيق الجاهزية السيادية
ما مدى جاهزية مؤسستك للانتقال من مرحلة التجريب إلى عصر الذكاء الاصطناعي الوكيل؟
استخدم التدقيق التالي لتقييم مؤسستك من 1 (مبتدئة) إلى 5 (رائدة). تتنبأ الدرجات المنخفضة في هذه المجالات باستمرار بتعثر التوسع، حتى في الأنظمة المتقدمة تكنولوجياً. عندما يجد القادة صعوبة في الإجابة عن هذه الأسئلة باستمرار، يكون العائق عادة ضعفاً في الأنظمة المؤسسية، وليس نقصاً في الوصول إلى التكنولوجيا.
| المجال | سؤال التشخيص التنفيذي | المجموع (1-5) |
|---|---|---|
| الحوكمة | هل لدينا مسؤولية بشرية صريحة وغير قابلة للنقل عن القرارات المدعومة بالذكاء الاصطناعي التي تمس المواطنين؟ وهل تطبق الحوكمة على المخاطر الأخلاقية تشغيلياً، وليس فقط على مستوى المبادئ؟ | |
| الجاهزية | هل يمكن للعمليات الجوهرية والبيانات التدفق بأمان بين المؤسسات دون الحاجة إلى "حلول بديلة غير رسمية"، بما يسمح بدمج الحكمة البشرية في القرارات المدعومة بالذكاء الاصطناعي؟ | |
| المواهب | هل القادة الكبار مؤهلون لمساءلة مخرجات الذكاء الاصطناعي ونقدها؟ وهل أعيد تصميم الأدوار، ومؤشرات الأداء الرئيسية، ومسارات التطوير لتناسب قوة عاملة هجينة (بشرية-تكنولوجية)؟ | |
| التعلم | هل يمكننا رصد الإجهاد التنظيمي، والتعلم من المشاريع التجريبية، وإيقاف أنظمة الذكاء الاصطناعي أو إعادة تصميمها أو سحبها دون حدوث شلل مؤسسي أو تضرر السمعة؟ |
تفسير الفجوة
يعد هذا التدقيق مقياساً للتكاليف البشرية غير المباشرة. وعادة ما تشير الدرجات المنخفضة في الحوكمة والمواهب إلى مستويات عالية من غموض الأدوار واضطراب الهوية المهنية. وعلى العكس من ذلك، تشير الدرجات المنخفضة في الجاهزية والتعلم إلى أنه على الرغم من أن التكنولوجيا قد تكون جاهزة ومفعلة، فجذورها المؤسسية ضعيفة، ما يجعل النظام عرضة لـ "مفارقة الصومعة" حيث تتوفر البيانات ولكن لا يمكن الاستفادة منها لتحقيق قيمة عامة.
مع دخولنا عام 2026، يتمثل الهدف بالنسبة لقادة القطاع العام في العمل على تحقيق "الجاهزية السيادية"؛ ويعني ذلك أن الدولة لا تستخدم الذكاء الاصطناعي فحسب، بل تمتلك القدرة الداخلية على حوكمته وتكييفه وتوسيع نطاقه بمسؤولية ضمن سياقها الاجتماعي التقني الفريد.
ما يجب على قادة القطاع العام فعله في الأيام التسعين المقبلة
بالنسبة لكبار قادة القطاع العام، فإن سد فجوة القيادة في مجال الذكاء الاصطناعي لا يبدأ بالاستثمارات التكنولوجية الجديدة، بل بتعزيز القدرات المؤسسية. وعلى المدى القريب، هناك أربعة إجراءات هي الأهم:
1. حدد بوضوح المسؤولية عن القرارات التي تعتمد على الذكاء الاصطناعي
من الضروري تحديد الأدوار البشرية، وليس الأنظمة، المسؤولة عن قرارات الذكاء الاصطناعي التي تؤثر في المواطنين. عندما لا تكون المسؤولية واضحة، أوقف التوسع إلى حين حل مشكلة الحوكمة.
2. إعادة تصميم عملية أساسية واحدة للتعاون بين الإنسان والذكاء الاصطناعي
اختر عملية عالية الأثر وأعد تصميم أسلوب تفاعل الحكمة البشرية مع مخرجات الذكاء الاصطناعي بوضوح. تعامل مع هذا الأمر على أنه تغيير تنظيمي وليس تجربة تقنية.
3. استثمر في القيادة وجاهزية القوى العاملة
احرص على أن يكون كبار القادة مجهزين لتقييم مخرجات الذكاء الاصطناعي على نحو نقدي ومدروس مناسب، وتمكين فرق الخطوط الأمامية من تطوير أدوارهم دون خوف أو إرهاق. يتطلب ذلك وقتاً واستثماراً في تطوير القدرات ووضع توقعات واضحة، وليس مجرد خطابات تحفيزية.
4. استثمر في التعلم قبل التوسع
ضع آليات بسيطة لجمع الدروس المستفادة من الاستخدام المبكر للذكاء الاصطناعي، والإجهاد التشغيلي، وملاحظات المواطنين، والعواقب غير المقصودة، واستخدامها لإرشاد السياسات والتصميم وقرارات الحوكمة.
تعمل هذه الإجراءات مجتمعة على تحويل تبني الذكاء الاصطناعي من مرحلة التجريب إلى مرحلة الجاهزية السيادية، وتعزيز أنظمة القيادة في المجالات الأهم: الحوكمة والجاهزية والأفراد والتعلم.
عندما تنجح التكنولوجيا ولا تنجح المؤسسات
تشير الرؤى الوطنية في أنحاء دول مجلس التعاون الخليجي ومنطقة الشرق الأوسط وشمال إفريقيا عموماً إلى التزام طويل الأمد بالتحديث والتنافسية. وينطبق ذلك بوضوح أكبر على الدول التي تتمتع ببنية تحتية رقمية أساسية، والتي تحول فيها التحدي من اعتماد الذكاء الاصطناعي إلى التوسع في تطبيقه. ويعزز هذا الالتزام الفرص والرقابة في آن واحد، وعلى مدى العقد القادم، ستكون الحكومات الناجحة هي التي تعتبر اعتماد الذكاء الاصطناعي خطة لبناء القدرة المؤسسية الشاملة؛ عبر حوكمة تكتسب الثقة، وجاهزية تتيح التوسع، ونظم للكفاءات تبني اليقين، وتعلم مستمر يديم التحسين.
والسؤال المطروح ليس عن استخدام الذكاء الاصطناعي، فهو مفروغ منه؛ بل عن عمل المؤسسات العامة على بناء القدرات المطلوبة لاستخدامه بمسؤولية وعلى نطاق واسع وبطرق تعزز القيمة العامة.
يرتبط فشل استخدام الذكاء الاصطناعي على المستوى الحكومي أو نجاحه بالقدرات القيادية لا بضعف الخوارزميات أو قوتها. لا يكمن التحدي الحاسم مستقبلاً في اعتماد الذكاء الاصطناعي، بل في جاهزية المؤسسات؛ اي القدرة على حوكمة الذكاء الاصطناعي بمسؤولية، ودمجه في أسلوب العمل، ودعم الأفراد خلال التغيير، والتعلم على نحو أسرع من تطور الأنظمة. ستنتقل الحكومات التي تستثمر في هذه القدرة من مجرد تنفيذ برامج تجريبية إلى تحقيق القيمة العامة، أما الحكومات الأخرى فقد تشغل الذكاء الاصطناعي على نطاق واسع، لكنها لن تستخدمه بفعالية. في عصر الأنظمة الذكية، تظل القيادة، لا التكنولوجيا، هي الميزة الحاسمة.