تقرير خاص

التحديات القانونية للذكاء الاصطناعي

3 دقيقة
مجال الذكاء الاصطناعي
مصمم الصورة: (هارفارد بزنس ريفيو، محمد محمود)

في عام 2019، وبموجب الأمر الملكي رقم (أ/471) وتاريخ 1440/12/29هـ، أنشأت المملكة الهيئة السعودية للبيانات والذكاء الاصطناعي والمركز الوطني للذكاء الاصطناعي ومكتب إدارة البيانات الوطنية. بهدف حوكمة مجال البيانات والذكاء الاصطناعي. ومن تخصصات الهيئة إقرار السياسات المتعلقة بالبيانات والذكاء الاصطناعي، إلى جانب اقتراح مشروعات الأنظمة.

التحديات القانونية المصاحبة لاستخدامات الذكاء الاصطناعي

تتنوع التحديات القانونية المرتبطة باستخدامات الذكاء الاصطناعي وتتعدد أبعادها، ولكن يمكن تلخيص أبرزها في التحديات الثلاثة الآتية:

أولاً: تحدي الخصوصية 

أدى دخول الذكاء الاصطناعي إلى مختلف المجالات إلى ظهور عدد من التحديات القانونية الكبرى، وأبرزها تحدي الخصوصية. تمثّل البيانات ثروة العصر الحالي، نظراً لقيمتها الحساسة والمهمة في مختلف الممارسات والتقنيات. كما أن هذه البيانات عنصر أساسي في بناء الذكاء الاصطناعي وتطويره، إذ نلاحظ في هذا السياق نمواً متسارعاً في قوانين وأنظمة خصوصية البيانات على مستوى العالم، بما في ذلك المستوى الوطني.

وتولي المملكة اهتماماً خاصاً من خلال قرار إنشاء مكتب إدارة البيانات، الذي يتولى اليوم مسؤولية متابعة تنفيذ السياسات المتعلقة بحماية البيانات. وقد تبع هذا القرار إصدار عدد من السياسات التي تهدف إلى تهيئة البيئة التشريعية، بما يضمن تداول البيانات وفق حوكمة تُمكّن من تتبع حركة البيانات وحمايتها. ومن بين هذه السياسات ضوابط ومواصفات إدارة البيانات الوطنية وحوكمتها وحماية البيانات الشخصية لعام 1441هـ، كما صدر نظام حماية البيانات الشخصية، الذي وضع ضوابط مشددة لمعالجة البيانات الشخصية في إطار نظامي يضمن مشروعية المعالجة، ما يسهم في الحد من الإشكالات المتعلقة بالخصوصية.

ثانياً: تحديات حقوق الملكية الفكرية 

ترتبط تحديات حقوق الملكية الفكرية ببُعدين رئيسيين: الأول هو مدى مراعاة أحكام قوانين حقوق الملكية الفكرية وحقوق المؤلف في أثناء عملية التعلم الذاتي للذكاء الاصطناعي، والبُعد الثاني هو لمن تُنسب مُلكية أي منتجات تصدر عن الذكاء الاصطناعي؛ ولا سيما أن تقنيات الذكاء الاصطناعي تسهم في عالم التأليف سواء في كتابة المقالات والأبحاث أو المعزوفات وغيرها من المنتجات.

البُعد الأول: مراعاة أحكام أنظمة حقوق الملكية الفكرية

يتعلق البُعد الأول بمدى مراعاة أحكام قوانين حقوق الملكية الفكرية وحقوق المؤلف في أثناء عملية التعلم الذاتي للذكاء الاصطناعي. تعتمد أنظمة الذكاء الاصطناعي على كميات هائلة من البيانات للتدريب، وغالباً ما تتضمن هذه البيانات مواد محمية بموجب حقوق المؤلف. وبالتالي، فإن استخدام هذه المواد دون الحصول على التراخيص اللازمة يمكن أن يؤدي إلى انتهاكات قانونية، ما يثير أسئلة حول المسؤولية القانونية للأفراد أو الكيانات التي تطور هذه الأنظمة.

وقد يترتب على هذا البعد عدد من الإشكاليات فيما يخص نظامية الاستخدامات الحالية لتقنيات الذكاء الاصطناعي مثل "تشات جي بي تي" (ChatGPT)، بما يضمن للمؤلف اليوم عدم انتهاك نتاجه الفكري في سبيل تطوير الذكاء الاصطناعي، وهو ما يستلزم معه وضوح الأطر القانونية الفاصلة في مثل هذه السياقات، ونلاحظ أن ذلك من المسائل التي توليها الهيئة السعودية للملكية الفكرية اهتماماً كبيراً من خلال تكثيف الجهود لدراسة هذه المسائل والبحث في جوانبها بما يعزز الوعي في هذه المسائل ويسهم في خلق حماية قانونية تدعم الإبداع والابتكار.

البُعد الثاني: ملكية المنتجات الناتجة عن الذكاء الاصطناعي

أما البُعد الثاني، فيتمحور حول ملكية المنتجات الناتجة عن الذكاء الاصطناعي. فمع تقدم التقنيات، أصبحت هذه الأنظمة قادرة على إنشاء محتوى متنوع مثل المقالات والأبحاث والمعزوفات، ما يثير تساؤلات حول من يُنسب له الفضل في هذه الإبداعات. هل هي ملك للذكاء الاصطناعي نفسه، أم للمطورين الذين صمموا النظام، أم للأفراد الذين زودوا النظام بالبيانات؟ ولا تزال هذه المسائل محل دراسة ونظر لتأثيرها على وضع أطر وتحديد ملكية حقوق الملكية الفكرية.

ثالثاً: تحديات الدقة والحيادية 

فيما يتعلق بالحديث عن الدقة أو الحيادية في حال الاعتماد على الذكاء الاصطناعي في مختلف المجالات فهو أمر في غاية الأهمية، فعلى سبيل المثال عند الاستعانة بالذكاء الاصطناعي لتحليل استشارة قانونية من خلال دراسة معطياتها وتفاصيلها، فإن إشكالية حيادية الذكاء الاصطناعي في تحليل المدخلات من المسائل التي لا تزال في مرحلة التطوير والتحسين، بمعنى أن التحليل قد ينطوي على تحيز لجانب أو بناء الرأي على مدخلات سابقة في سياق مختلف غير ذي صلة، ما يترتب معه عدم دقة الرأي القانوني المُقدم من الذكاء الاصطناعي.

وللتعامل مع هذه التحديات، هناك حاجة مُلحة إلى تطوير أطر قانونية تنظّم استخدام الذكاء الاصطناعي في المجال القانوني؛ وذلك لضمان الدقة والحيادية. وقد عالجت الهيئة السعودية للبيانات والذكاء الاصطناعي مثل هذه التحديات من خلال وضع مبادئ لأخلاقيات الذكاء الاصطناعي؛ لتطبيقها على جميع الفئات المستخدمة لأي من تقنيات الذكاء الاصطناعي، مع مراعاة عدد من المبادئ المهمة، منها مبدأ الموثوقية والسلامة بما يضمن إلزام مطوري الذكاء الاصطناعي بالتقيد بهذه الإجراءات مراعاة لتحقيق أعلى درجة من الحيادية والدقة لنتائج هذه التقنيات في ظل دورة حياة الذكاء الاصطناعي الفنية.

وفي الختام، فإن التحديات القانونية للذكاء الاصطناعي في المملكة العربية السعودية تتجلى بأبعاد متعددة تتطلب الدراسة المستمرة والفهم العميق، وتشكّل هذه التحديات محوراً أساسياً في توجيه استخدامات الذكاء الاصطناعي على نحو مسؤول وموثوق.

تنويه: يمكنكم مشاركة أي مقال من هارفارد بزنس ريفيو من خلال نشر رابط المقال أو الفيديو على أي من شبكات التواصل أو إعادة نشر تغريداتنا، لكن لا يمكن نسخ نص المقال نفسه ونشر النص في مكان آخر نظراً لأنه محمي بحقوق الملكية الدولية. إن نسخ نص المقال بدون إذن مسبق يعرض صاحبه للملاحقة القانونية دولياً.

جميع الحقوق محفوظة لشركة هارفارد بزنس ببليشنغ، بوسطن، الولايات المتحدة الأميركية 2024 .

المحتوى محمي