الذكاء الاصطناعي ودعم الشفافية في رؤية 2030
اتفق خبراء في صناعة التكنولوجيا على أهمية حوكمة استخدامات الذكاء الاصطناعي لتعزيز الشفافية والشمولية وكبح التلاعب والمخاطر على صعيد الأمن والسياسة. حيث أوضحوا أن حوكمة الذكاء الاصطناعي تتضمن سياسات تضمن استخدام التكنولوجيا بشكل مسؤول وآمن. ويعتبر تطوير واستخدام الذكاء الاصطناعي من خلال الحوكمة بمثابة تحقيق التوازن بين الابتكار والحماية. وتهدف الحوكمة إلى حماية البيانات الشخصية وضمان استخدامها بشكل قانوني وأخلاقي، بالإضافة إلى تطوير القدرات البشرية وتأسيس بنى تحتية رقمية تسهم في دعم الابتكار الرقمي.
تعزيز الشفافية وتحقيق رؤية 2030 من خلال حكومة الذكاء الاصطناعي
وأشاروا إلى أنَّ حوكمة الذَّكاء الاصطناعيِّ هي مجموعة من الأُطر والسياسات التي تعمل بمثابة حواجز لضمان تطوير تقنيات الذَّكاء الاصطناعيِّ واستخدامها بطريقة تقلل من المخاطر المحتملة من التحيُّز وزيادة الفوائد المطلوبة.
كما تعالج خوارزميَّات الذَّكاء الاصطناعيِّ، واتِّخاذ القرارات، وخصوصيَّة البيانات والأمن، والآثار الاقتصاديَّة والاجتماعيَّة المحتملة التي تصاحب استخدام هذه التكنولوجيا.
ضوابط الحوكمة
في البداية يُعرِّف المستشارُ والمختصُّ في الآمن السيبراني رامي عبدالرحمن الغانمي مفهوم «حوكمة الذَّكاء الاصطناعيِّ» بأنَّه مجموعة من السياسات، والمعايير، والإجراءات التي تهدف إلى ضمان استخدام تقنيات الذَّكاء الاصطناعيِّ بشكل مسؤول، آمن، وعادل.
وتهدف الحوكمة إلى تحقيق التوازن بين الابتكار والحماية من المخاطر، وضمان الشفافية، والعدالة، والمساءلة في تطوير واستخدام الذَّكاء الاصطناعيِّ.
وبيَّن الغانمي، أنَّ أهم مبادئ الحوكمة الشفافية، ووضوح عمليَّات اتِّخاذ القرار، وتحديد المسؤوليَّات، والتأكُّد من أنَّ الأنظمة لا تتحيَّز ولا تميِّز بين المستخدمين، مع حماية البيانات الشخصيَّة، وضمان استخدامها بشكل قانوني وأخلاقي.
وتشجيع الابتكار، مع وضع ضوابط لضمان السلامة، ودمج مبادئ الحوكمة في كل مراحل تطوير واستخدام الذَّكاء الاصطناعيِّ.
ويتمُّ قياس حوكمة الذَّكاء الاصطناعيِّ من خلال مؤشرات الأداء، مثل دقة الأنظمة، وسلامة البيانات، وتقارير الامتثال.
وفي هذا الصدد أطلقت المملكة الإستراتيجيَّة الوطنيَّة للذَّكاء الاصطناعيِّ؛ بهدف جعلها رائدةً عالميًّا في هذا المجال، بحلول عام 2030.
كما استثمرت بشكل كبير في تحسين البنية التحتيَّة الرقميَّة، بما في ذلك الشبكات عالية السرعة، وخدمات الحوسبة السحابيَّة، ومراكز البيانات؛ ممَّا يُسهم في دعم الابتكار الرقميِّ. وبجانب تطوير القدرات البشريَّة، جرى تدشين مشروعات مثل: «نيوم»، و»ذا لاين» التي تُعتبر نموذجًا للتطوُّر الرقميِّ والتقنيِّ في المملكة.
ووضعت المملكة تشريعات وسياسات تهدف إلى تنظيم وتحفيز الاستخدام الآمن والمسؤول للتكنولوجيا، والذَّكاء الاصطناعيِّ؛ ممَّا يعزِّز الثقة في الاقتصاد الرقميِّ.
وتلعب حوكمة الذَّكاء الاصطناعيِّ دورًا حيويًّا وفعَّالًا في دعم وإنجاح رؤية المملكة 2030، من خلال حماية الخصوصية والأمان والحقوق الإنسانيَّة، تحقيق مزيدٍ من التقدُّم التكنولوجي والاقتصادي؛ ممَّا ينعكس إيجابًا على المجتمع والاقتصاد.
مراجعة القرارات
ومن جانبه أكَّد مدير أمن سيبراني عبدالله بن عبدالرحمن العياضي، أهميَّة تعزيز المساءلة والمسؤولية لحوكمة الذَّكاء الاصطناعيِّ، من خلال وضع سياسات وإجراءات تضمن أنَّ القرارات التي تتَّخذها الأنظمة الذكيَّة يمكن تتبُّعها ومراجعتها.
ويشمل ذلك وضع آليات لتوثيق كيفيَّة اتِّخاذ القرارات، وضمان وجود جهة مسؤولة يمكن الرجوع إليها في حال حدوث أيِّ مشكلة.
وأشار العياضي إلى مواكبة المملكة التطور الرقمي بشكل كبير، من خلال تبنِّي تقنيات الذَّكاء الاصطناعيِّ والاستثمار في البنية التحتيَّة الرقميَّة، ويبرز ذلك جليًّا في تأسيس الهيئة السعوديَّة للبيانات والذَّكاء الاصطناعيِّ (سدايا)، التي تساهم بشكل مباشر في تحقيق 70% من مستهدفات رؤية 2030، من خلال تعزيز التحوُّل الرقمي، وتحسين الخدمات المقدَّمة للمواطنِينَ والمقيمِينَ.
وتساهم برامج «سدايا» التدريبيَّة والمعسكرات التقنيَّة في تطوير الكوادر الوطنيَّة؛ ممَّا يدعم الابتكار والتنمية المُستدامة.
منع التَّلاعب بالأسواق والسياسة
من جهته أوضح الخبيرُ في الأمن السيبراني مجلاد مشاري السبيعي، أنَّ «مفهوم حوكمة الذَّكاء الاصطناعيِّ» يعني وضع إطار قانوني لضمان أنَّ تقنيات التعلُّم الآلي (ML) مدروسة جيدًا ومتطورة؛ بهدف مساعدة البشرية على التنقل في اعتماد أنظمة الذَّكاء الاصطناعيِّ بشكل عادل.
وأكَّد السبيعي، من الممكن لحوكمة الذكاء الاصطناعيِّ أنْ تتكيَّف مع التطوُّرات المتسارعة في هذا العلم، وفي هذا العالم، بالنظر إلى المستقبل، يمكننا أنْ نتوقَّع المزيد من الاعتراف بالتأثير العالمي للذَّكاء الاصطناعيِّ بشكل منصف ومستدام.
ويتطلَّب ذلك حوارًا مستمرًا ومفتوحًا وشفافًا بين الحكومات والصناعات والأوساط الأكاديميَّة والمجتمع المدني؛ للتنقل في المشهد المعقَّد لحوكمة الذَّكاء الاصطناعيِّ بشكلٍ فعَّالٍ.
ومن المخاطر المثيرة للقلق البالغ ما يتمتَّع به الذَّكاء الاصطناعيِّ التوليديِّ من قدرة فائقة على سرد قصص تجد صدًى في معتقدات الأفراد ووجهات نظرهم الراسخة، وبمقدور الأطراف ذات النوايا الخبيثة أنْ تستفيد من هذه القدرة، ليس فقط من خلال الكلمة المكتوبة.
ففي مارس 2022، ظهر مقطع فيديو من إنتاج الذَّكاء الاصطناعيِّ شُوهد فيه الرئيس الأوكراني فولوديمير زيلينسكي وكأنَّه يستسلم للقوات الروسية.
وتبيِّن مثل هذه الأحداث كيف يمكن تحويل الذَّكاء الاصطناعيِّ التوليديِّ إلى سلاح للتلاعب بالسياسة والأسواق والرأي العام، وسواء كانت قصةً ملفقةً، أو صورةً مركبةً، أو فيديو اصطناعي، فإنَّ مخرجات الذَّكاء الاصطناعيِّ التوليديِّ يمكن أنْ تكون مقنعةً لدرجة تخلق شعورًا زائفًا بكونها واقعًا حقيقيًّا. وينطوي ذلك على إمكانية نشر معلومات مغلوطة، وإثارة الذعر، بل وزعزعة استقرار النظم الاقتصاديَّة أو الماليَّة بكفاءة وقوَّة غير مسبوقتين.
ويجب على صنَّاع السياسات أنْ يأخذُوا في الاعتبار أنَّه نظرًا لتعذُّر التنبؤ، قد لا تكون أيُّ قواعد يقرُّونَها اليوم فعَّالة، أو حتى ذات صِلَةٍ في غضون شهور قليلة، وقد يكون من الخطأ تقييد الجهات التنظيميَّة اليوم بأنظمة تفتقر إلى المرونة، وبالأحرى ستتحقق أفضل استفادة للحوكمة الرشيدة عن طريق وضع مجموعة من المبادئ الأولى التي يمكن أنْ تعتمد عليها عمليَّة صُنع القرار بشأن الذَّكاء الاصطناعيِّ، وتتَّسم بأنَّها وقائيَّة وسريعة الحركة وشاملة، ويجب أنْ تكون حوكمة الذَّكاء الاصطناعيِّ مرنةً وقابلةً للتعديل، وذاتيَّة التصحيح بقدر ما لدى الذَّكاء الاصطناعيِّ من سرعة في الحركة والتطوُّر الفائق والتحسُّن الذاتيِّ. ولا شكَّ أنَّ السبيلَ الوحيد أمام الجهات التنظيميَّة لممارسة الرقابة المناسبة على الذَّكاء الاصطناعيِّ هو التعاون مع الشركات الخاصَّة العاملة في مجال التكنولوجيا.
ونظرًا لقدرة الذَّكاء الاصطناعيِّ على الانتشار بسهولة، فإنَّ حالة خروج واحدة عن النظام يمكن أنْ تسمح بانفلات نموذج خطير. لذلك، فإنَّه ينبغي لأيِّ آليات امتثال أنْ تكون محكمة، مع جعل الدخول إليها سهلًا للإجبار على المشاركة، في حين يكون الخروج منها مكلِّفًا لردع عدم الامتثال.
ومن الناحية العمليَّة، فإنَّ تحديد الأدوات المناسبة لاستهداف أيٍّ من المخاطر سيتطلَّب وضع تصنيف تاكسونومي مباشر عملي للمخاطر المنفصلة المتوقَّعة التي ينطوي عليها الذَّكاء الاصطناعيُّ.
ومن ثمَّ، يجب أنْ تكون حوكمة الذَّكاء الاصطناعيِّ موجهةً، وقائمةً على المخاطر، وتناسب كل نمط وليست أسلوبًا واحدًا يناسب الجميع.
ويرى السبيعي بأنَّ حوكمة الذَّكاء الاصطناعيِّ لها دور فعَّال لإنجاح رؤية 2030، ولذلك أصدرت الهيئة مبادئ الذَّكاءِ الاصطناعيِّ التوليديِّ بنسخة مخصَّصة للجهات الحكوميَّة ونسخة أُخْرَى مخصَّصة للعموم.
وتتضمَّن أمثلة تستند إلى سيناريوهات شائعة قد تتطرَّق إليها الجهات، كما تسلِّط الضوء على التحدِّيات والاعتبارات المرتبطة باستخدام الذَّكاء الاصطناعيِّ التوليديِّ، وتقترح مبادئ للاستخدام المسؤول، وتعرض الممارسات الموصى بها.