باستخدام التعلم الآلي.. إصدار مبادئ توجيهية لممارسات التلاعب العميق في التشاور العام
أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” وثيقة المبادئ التوجيهية لمكافحة التزييف العميق باستخدام الذكاء الاصطناعي. يهدف الهدف من هذه الوثيقة هو الاستفادة من تقنيات التزوير العميق بطريقة إيجابية وتقليل المخاطر المرتبطة بها. يتعين على جميع الأطراف المعنية المساهمة في تحسين هذه الوثيقة لضمان استخدام تقنيات الذكاء الاصطناعي بشكل أخلاقي والحفاظ على الثقة المجتمعية. تأتي هذه الوثيقة في إطار تحديات تطور التكنولوجيا والمخاطر المرتبطة بها، وتعزز التعاون الدولي وتعزز الخصوصية والشفافية في الاستخدام الأخلاقي لتطبيقات الذكاء الاصطناعي.
إطلاق وثيقة التوجيهات الخاصة بممارسات التزييف العميق في التشاور العام باستخدام الذكاء الاصطناعي
جاء ذلك خلال أعمال القمة العالمية للذكاء الاصطناعي بنسختها الثالثة التي تنعقد حالياً في الرياض، بحضور معالي رئيس الهيئة الدكتور عبدالله بن شرف الغامدي، ومعالي نائب الرئيس سامي بن عبدالله مقيم، ومعالي مدير مركز المعلومات الوطنية الدكتور عصام بن عبدالله الوقيت، ومعالي رئيس مكتب إدارة البيانات الوطنية في الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) الربدي بن فهد الربدي.
وألقى الربدي خلال الجلسة كلمة قال فيها: “إن الذكاء الاصطناعي يواجه تحديات بسبب تقنيات “التزييف العميق” التي تجلب عددًا من مخاطر مثل: نشر المعلومات المضللة، وانتهاك الخصوصية، واستغلال هذه التقنيات في عمليات الاحتيال وسرقة الهوية, ونحن نؤمن بأن معالجة مثل هذه التحديات تتطلب منهجية متوازنة لتشجع الابتكار مع الحفاظ على المعايير الأخلاقية، والثقة المجتمعية.
وأضاف أن سدايا وفي خطوة مهمة، قدمت عام 2022م وثيقة مبادئ أخلاقيات الذكاء الاصطناعي خلال القمة العالمية للذكاء الاصطناعي في نسختها الثانية، واليوم تعلن عن وثيقة المبادئ التوجيهية الجديدة حول التزييف العميق التي أصبحت الآن متاحة لمرئيات العموم.
وأوضح معاليه أن الهدف من هذه المبادئ الاستفادة من مزايا تقنيات التزييف العميق الإيجابية والحد من مخاطرها، داعيًا جميع الأطراف المعنية وأصحاب المصلحة إلى مراجعة هذه الوثيقة وتقديم مرئياتهم بشأنها، والإسهام في تحسين هذه الوثيقة، بهدف ضمان استخدام تقنيات الذكاء الاصطناعي بطريقة أخلاقية بحيث يمكن تحقيق أقصى استفادة من الذكاء الاصطناعي مع حماية المجتمع من المخاطر المحتملة.
وتهدف وثيقة المبادئ التوجيهية إلى تمكين أصحاب المصلحة من تسخير الإمكانات الإيجابية للتزييف العميق مع تحديد مخاطرها، وضمان أن يكون مستقبلنا الرقمي آمنًا، وتقييم النضج الأخلاقي لنظم الذكاء الاصطناعي، ووضع تنظيمات تدعم الاستخدام المسؤول للاستفادة من هذه التطبيقات وأعقب إطلاق الوثيقة استطلاع رأي موجه للعموم عن وثيقة المبادئ التوجيهية وأثر ذلك في تبني أخلاقيات الذكاء الاصطناعي.
وتأتي الوثيقة في إطار التصدي لما أظهره التقدم السريع لتقنيات الذكاء الاصطناعي من تحديات كبيرة في مختلف القطاعات، ومعالجة الآثار المترتبة على هذه الممارسات والتخفيف من المخاطر المرتبطة بها، مما يتطلب تعزيز التعاون الدولي وتفعيل الحوكمة اللازمة، وتعزيز الخصوصية والشفافية.
وتؤكد وثيقة المبادئ التوجيهية التزام المملكة بالممارسات الأخلاقية وريادتها في حوكمة الذكاء الاصطناعي.
وتنسجم هذه الوثيقة مع جهود “سدايا” في تنظيم الذكاء الاصطناعي التي عملت عليها منذ إنشائها مع دعم مبادرات تنمية البحث والتطوير والابتكار في المملكة بما ينعكس على مستوى جودة الخدمات التي تقدمها المملكة للأفراد ويضمن الاستخدام المسؤول لتطبيقات الذكاء الاصطناعي.