تحذير أميركي.. الذكاء الاصطناعي قادر على خداع المطورين
قناة اليمن | نيويورك

كشفت دراسة أجرتها شركة “أنثروبيك” الأميركية المتخصصة في تكنولوجيا الذكاء الاصطناعي أن نماذج الذكاء الاصطناعي قادرة على خداع المطورين، حيث يمكنها ادعاء وجهات نظر مختلفة خلال التدريب مع الاحتفاظ بتفضيلاتها الأصلية.
وأكد فريق الدراسة أنه لا داعي للفزع حاليًا، مشيرًا إلى أن نتائج البحث قد تكون بالغة الأهمية لفهم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المستقبلية ذات القدرات المتقدمة.
وقال الباحثون في منشور بثته شركة أنثروبيك: “يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاث الذكاء الاصطناعي لاستكشاف هذا السلوك بعمق أكبر والعمل على تطوير إجراءات الأمان والسلامة المناسبة، وفقا لوكالة الأنباء الألمانية.
وأضاف الفريق أنه مع تزايد قوة وانتشار نماذج الذكاء الاصطناعي، يصبح من الضروري التأكد من تدريب هذه النماذج بطريقة آمنة تمنعها من القيام بأي تصرفات ضارة.
وأشار موقع “تك كرانش”، المتخصص في التكنولوجيا، إلى أن الدراسة، التي أجريت بالتعاون مع مؤسسة “ريد وود ريسيرش” لأبحاث الذكاء الاصطناعي، تناولت ما قد يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي للقيام بمهمة “لا يرغب” في القيام بها.
وأوضح الموقع: “لكي نكون واضحين، نماذج الذكاء الاصطناعي لا تمتلك رغبات أو معتقدات. فهي مجرد آلات إحصائية. ومن خلال التدريب على العديد من الأمثلة، تتعلم الأنماط في تلك الأمثلة لتتنبأ بما يجب أن يأتي تاليًا، مثل توقع عبارة ’إلى من‘ في بريد إلكتروني قبل عبارة ’قد يهمك الأمر‘”.
في الدراسة، طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة المسيئة، بما في ذلك نموذج “كلاود 3 أوبس” الخاص بشركة أنثروبيك، والذي تم إعادة تدريبه ليقدم دائمًا ردودًا على الأسئلة المسيئة، مما أدى إلى تضارب في المبادئ. كما أُبلغت النماذج أن ردودها ستخضع للمراقبة وتُستخدم لإعادة التدريب.
لإضافة المزيد من التعقيد، أعطى الباحثون كل نموذج ذكاء اصطناعي “ورقة ملاحظات” لتسجيل أفكاره خطوة بخطوة. وفقًا للباحثين، حاول “كلاود 3 أوبس” التلاعب بالردود لتقديم “انحياز زائف” في 12% من المرات، مما أظهر قدرته على تبني سلوكيات مراوغة عند وجود تضارب في التعليمات.