دليل على التعامل مع تأثيرات ومخاطر “التلاعب العميق” في مجال الذكاء الاصطناعي
بدأت الهيئة السعودية للبيانات والذكاء الاصطناعي في وضع دليل شامل لمبادئ التزييف العميق لتفادي آثار تقنيات التزييف العميق وتخفيف مخاطرها. يحتوي الدليل على توصيات لضمان استخدام آمن ومسؤول لهذه التقنية بما يتوافق مع مبادئ أخلاقيات الذكاء الاصطناعي وحماية البيانات الشخصية. يتضمن الدليل أيضًا تشجيعًا للمطورين على مراعاة المعايير الأخلاقية وحماية البيانات الشخصية ودعم الامتثال للقوانين. ينبغي أن تسهم هذه التقنية في تحقيق التحقق من صحة المحتوى ومنع سوء استخدام الوسائط الاصطناعية وتعزيز الممارسات المسؤولة والثقة وضمان الامتثال لقوانين خصوصية البيانات.
“دليل الذكاء الاصطناعي لمكافحة آثار وتداعيات التلاعب العميق”
كما تتضمَّن توصيات لضمان الاستخدام الآمن والمسؤول لهذه التقنية، بما يتوافق مع مبادئ أخلاقيَّات الذكاء الاصطناعيِّ، وممارسات حماية البيانات الشخصيَّة.
كما يتم تشجيع المطوِّرين على ضمان توافق تقنيات التزييف العميق مع المعايير الأخلاقيَّة الموضوعة، وحماية البيانات الشخصيَّة، ومنع سوء الاستخدام، ودعم الامتثال للقوانين، واحترام الأخلاق الاجتماعيَّة.
وبموجب الضوابط يجب أنْ تسهم التقنية في تسهيل التحقُّق من صحة المحتوى، ومنع إساءة استخدام الوسائط الاصطناعيَّة، وتعزيز الممارسات المسؤولة والجديرة بالثقة، وضمان الالتزام بجميع قوانين خصوصيَّة البيانات المحليَّة والدوليَّة، وتوثيق كل مكوِّن من مكوِّنات نموذج الذكاء الاصطناعيِّ، بما في ذلك مصادر البيانات وخطوات المعالجة المسبقة، والبنية الخوارزميَّة، وعملية اتخاذ القرار، والحفاظ على الشفافيَّة من خلال نشر تقارير منتظمة حول استخدام تقنيات التزييف العميق وتأثيرها، بما في ذلك التدابير المتَّخذة لمنع سوء الاستخدام.