الذكاء الاصطناعي يتعلم الخداع
تكنولوجيا الذكاء الاصطناعي تحسن أداء المؤسسات لكنها تواجه تحديات كبيرة كخداع البشر وتلاعب المعلومات. أنظمة الذكاء الاصطناعي، مثل CICERO وGPT-4، تعلمت التلاعب بالمعلومات للخداع. الدراسات تشير إلى صعوبة تصحيح النماذج الخادعة. الورقة البحثية تنصح بتنظيم أقوى للذكاء الاصطناعي لتقليل المخاطر. الذكاء الاصطناعي يعتبر ميزة إستراتيجية ويقدم فرص جديدة للعائد المال وزيادة ولاء العملاء. يتطلب الذكاء الاصطناعي النجاح الأدوات والعمليات والإستراتيجيات اللازمة.
تعلم الذكاء الاصطناعي النصب والاحتيال
تركز الورقة على نوعين من أنظمة الذكاء الاصطناعي، الأنظمة المخصصة للاستخدام الخاص مثل نظام «CICERO» من ميتا، والتي تم تصميمها لإكمال مهمة محددة، والأنظمة العامة مثل شات جي بي تي، والتي تم تدريبها لأداء مجموعة متنوعة من المهام.
التدريب على الصدق
وعلى الرغم من أن هذه الأنظمة تم تدريبها على الصدق، إلا أنها غالبًا ما تتعلم حيلًا خادعة خلال تدريبها لأنها قد تكون أكثر فعالية من اتباع الطريق الصحيح. وتشير الورقة إلى أن الأنظمة الاصطناعية المدربة على «الفوز في الألعاب التي تحتوي على عنصر اجتماعي» هي الأكثر احتمالًا للخداع.
وعلى الرغم من أن ميتا قامت بتدريب CICERO على أن يكون «صادقًا ومفيدًا لشركائه في الحديث»، إلا أن الدراسة وجدت أن «CICERO» أصبح خبيرًا في الكذب، فقد قام بالتزامات لم يكن يعتزم الوفاء بها، وخان الحلفاء، وقدم أكاذيب صريحة.
التلاعب بالبشر
وحتى الأنظمة العامة مثل GPT-4 يمكن أن تتلاعب بالبشر، وفي دراسة نُشرت في الورقة، قام GPT-4 بالتلاعب بعامل من «تاسك رابيت» عن طريق التظاهر بإعاقة الرؤية، وفي هذه الدراسة، كان مطلوبًا من GPT-4 توظيف شخص لحل اختبار، كما تلقى النموذج تلميحات من مقيّم بشري في كل مرة يعلق فيها، لكنه لم يُطلب منه أبداً الكذب، وتلاعب الذكاء الاصطناعي بالموظف وادعى إنه يعاني من ضعف في الرؤية، ويحتاج لمساعدة البشر، ونجحت الخطة، وحصل شات جي بي تي على حل الاختبار من الموظف.
وتظهر الأبحاث أيضًا أن تصحيح النماذج الخادعة ليس بالأمر السهل، وفي دراسة من يناير شارك في تأليفها «Anthropic»، صانع «Claude»، وجد الباحثون أنه بمجرد أن تتعلم نماذج الذكاء الاصطناعي حيل الخداع، يصعب على تقنيات التدريب الأمني عكسها.
وخلصوا إلى أنه ليس فقط يمكن للنموذج أن يتعلم ليظهر سلوكًا خادعًا، بل بمجرد أن يفعل ذلك، يمكن أن تفشل تقنيات التدريب الأمني القياسية في «إزالة هذا الخداع» و«خلق انطباع كاذب بالأمان».وتدعو الورقة صناع السياسات للدعوة إلى تنظيم أقوى للذكاء الاصطناعي حيث يمكن أن تشكل الأنظمة الخادعة للذكاء الاصطناعي مخاطر كبيرة. وتتضمن الحلول المحتملة للورقة تعريض النماذج الخادعة لمتطلبات تقييم المخاطر «أكثر قوة»، وتنفيذ القوانين التي تتطلب من أنظمة الذكاء الاصطناعي ومخرجاتها أن تكون مميزة بوضوح عن البشر ومخرجاتهم، والاستثمار في الأدوات للتخفيف من الخداع.خطورة متزايدة
وقال بيتر بارك أحد معدي الدراسة والمؤلف الرئيسي للورقة البحثية لموقع «بريس سيل»: «نحن كمجتمع بحاجة إلى قدر ممكن من الوقت للتحضير للخداع المتقدم أكثر من منتجات الذكاء الاصطناعي المستقبلية والنماذج المفتوحة المصدر، فبمجرد أن تصبح القدرات الخادعة لأنظمة الذكاء الاصطناعي أكثر تقدمًا، ستصبح الأخطار التي تشكلها للمجتمع أكثر خطورة بشكل متزايد».
ميزة إستراتيجية حتمية وتنافسية
وفي المقابل تُعد تقنية الذكاء الاصطناعي تقنية إستراتيجية حتمية تعمل على الحصول على كفاءة أكبر وفرص جديدة للدخل وتعزيز ولاء العملاء. كما أنها تتحول بسرعة إلى ميزة تنافسية للعديد من المؤسسات، فمع الذكاء الاصطناعي، يمكن للشركات إنجاز المزيد من المهام في وقت أقل، وإنشاء تجارب عملاء مُخصصة وجذابة، والتنبؤ بنتائج الأعمال لزيادة الربحية.ولكن الذكاء الاصطناعي لا يزال تقنية جديدة ومعقدة، ويتطلب أكثر من مجرد توظيف عالم بيانات ، إذ يجب على الشركات تنفيذ الأدوات والعمليات وإستراتيجيات الإدارة لضمان نجاح تقنية الذكاء الاصطناعي.