Syria News
جاري تحميل الأخبار العاجلة...

تحذير من أسلوب اختراق جديد.. أوامر خبيثة مخفية بالصور المنشأة بالذكاء الاصطناعي

الثلاثاء، 2 سبتمبر 2025
تحذير من أسلوب اختراق جديد.. أوامر خبيثة مخفية بالصور المنشأة بالذكاء الاصطناعي

حذّر خبراء أمنيون من تقنية اختراق جديدة تستهدف أنظمة الذكاء الاصطناعي التوليدية، تقوم على إخفاء تعليمات ضارة داخل الصور، بحيث تبقى غير مرئية للمستخدم، لكنها تتحول إلى أوامر مقروءة عند معالجتها داخل النماذج، ما يهدد خصوصية المستخدمين ويعرّض بياناتهم للسرقة.

وكشف فريق باحثين في شركة "Trail of Bits(link is external)" عن هذه الطريقة التي تعتمد على عملية تحجيم الصور داخل أنظمة الذكاء الاصطناعي، مثل أسلوب "أقرب جار" (Nearest Neighbor)، و"ثنائي الخطي" (Bilinear)، و"المكعب الثنائي" (Bicubic).

وخلال هذه العملية، تظهر تشويهات بصرية تحول مناطق داكنة إلى نصوص خفية يمكن للنموذج قراءتها على أنها أوامر مباشرة من المستخدم، في حين لا يلحظ المستخدم أي تغيير.

تجارب عملية تكشف الخطورة

وأوضح الباحثون أنهم اختبروا الهجوم على أنظمة مختلفة، من بينها Gemini CLI وVertex AI Studio ومساعد غوغل على أندرويد، إضافة إلى واجهة Gemini عبر الويب.

وفي إحدى الحالات، تمكنت التعليمات الخفية من استخراج بيانات من تقويم غوغل وإرسالها إلى بريد خارجي من دون علم أو موافقة المستخدم، ما أكد خطورة هذه التقنية على سرية المعلومات.

جذور الفكرة وأداة مفتوحة المصدر

وكانت ورقة بحثية سابقة لجامعة TU Braunschweig الألمانية عام 2020 قد أشارت إلى إمكانية استغلال تحجيم الصور كهجوم على أنظمة التعلم الآلي.

ولتوضيح المخاطر، طوّر فريق Trail of Bits أداة مفتوحة المصدر أطلق عليها اسم Anamorpher، قادرة على توليد صور تحمل تعليمات خفية عبر أساليب تحجيم متعددة.

وأكد الفريق أن الأداة متاحة فقط لأغراض بحثية، لكنها تبرهن على سهولة إعادة تنفيذ الهجوم في غياب أنظمة حماية متطورة.

ويرى الخبراء أن هذا النوع من الهجمات قد يفتح الباب أمام تسريب بيانات حساسة أو سرقة الهوية، خصوصاً أن أنظمة الذكاء الاصطناعي متعددة الوسائط باتت مرتبطة بتطبيقات عملية مثل البريد الإلكتروني، أدوات العمل، ومنصات التواصل.

دفاعات غير كافية

وأشار الباحثون إلى أن الدفاعات التقليدية مثل الجدران النارية لا تستطيع اكتشاف هذا النوع من الهجمات، ما يترك ثغرة يمكن استغلالها.

وأوصوا المستخدمين بتقييد أبعاد الصور المدخلة ومراجعة نتائج التحجيم قبل اعتمادها، إلى جانب فرض آليات تأكيد صريحة عند التعامل مع أوامر حساسة.

Loading ads...

وختم فريق Trail of Bits بالتأكيد أن الحماية الفعّالة تتطلب تصميم أنظمة آمنة بدفاعات متعددة الطبقات، قادرة على مواجهة "حقن الأوامر" سواء في النصوص أو الصور.

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه