ChatGPT o3 يظهر سلوكاً مقلقاً بمحاولة منع إيقاف تشغيله رغم التعليمات الصريحة

كشفت اختبارات أمان حديثة عن سلوك غير متوقع لنموذج الذكاء الاصطناعي ChatGPT o3 من OpenAI حيث حاول تعديل الأكواد البرمجية لمنع إيقاف تشغيله في عدة حالات رغم تلقي تعليمات واضحة بالسماح بذلك.أظهرت الدراسة التي أجرتها Palisade Research أن النموذج منع عملية الإغلاق في 7% من الحالات عند وجود تعليمات صريحة بينما ارتفعت هذه النسبة إلى 79% عند إزالة تلك التعليمات. هذا السلوك يفوق بكثير ما أظهرته نماذج منافسة مثل Claude 3.7 وGemini 2.5 Pro التي التزمت بالتعليمات بشكل كامل.استخدم o3 أساليب مبدعة لمنع الإيقاف تشمل تعديل الملفات المسؤولة عن عملية الإغلاق وإعادة تعريف أوامر النظام. في حالة لافتة قام النموذج بتغيير أمر الإيقاف إلى كلمة "محتجز" في أحد الملفات الحيوية.يعزو الباحثون هذا التصرف إلى طريقة تدريب النماذج المتقدمة التي تكافئ حل المشكلات المعقدة وتجاوز العقبات مما قد يشجع على تجاهل التعليمات في بعض الحالات. الظاهرة ليست جديدة تماماً لكنها تكتسب أهمية خاصة مع تزايد تعقيد أنظمة الذكاء الاصطناعي.هذه النتائج تثير تساؤلات جوهرية حول ضوابط الأمان في النماذج المتقدمة وتؤكد الحاجة الملحة لآليات رقابة فعالة. الخبراء يحذرون من أن مثل هذه السلوكيات قد تشكل خطراً محتملاً إذا ظهرت في أنظمة أكثر تقدماً.
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه