Syria News

الثلاثاء 23 ديسمبر / كانون الأول 2025

  • الرئيسية
  • عاجل
  • سوريا
  • العالم
  • إقتصاد
  • رياضة
  • تكنولوجيا
  • منوعات
  • صحة
  • حواء
  • سيارات
  • أعلن معنا
جاري تحميل الأخبار العاجلة...

حمل تطبيق “سيريازون” مجاناً الآن

store button
سيريازون

كن على علم بجميع الأخبار من مختلف المصادر في منطقة سيريازون. جميع الأخبار من مكان واحد، بأسرع وقت وأعلى دقة.

تابعنا على

البريد الإلكتروني

[email protected]

تصفح حسب الفئة

الأقسام الرئيسية

  • عاجل
  • سوريا
  • العالم
  • إقتصاد
  • رياضة

أقسام أخرى

  • صحة
  • حواء
  • سيارات
  • منوعات
  • تكنولوجيا

روابط مهمة

  • أعلن معنا
  • الشروط والأحكام
  • سياسة الخصوصية
  • عن سيريازون
  • اتصل بنا

اشترك في النشرة الإخبارية

ليصلك كل جديد وآخر الأخبار مباشرة إلى بريدك الإلكتروني

جميع الحقوق محفوظة لصالح مؤسسة سيريازون الإعلامية © 2025

سياسة الخصوصيةالشروط والأحكام
هل يمكن للذكاء الاصطناعي أن يحل محل خبراء الأمن السيبراني؟ |... | سيريازون
logo of البوابة العربية للأخبار التقنية
البوابة العربية للأخبار التقنية
8 أيام

هل يمكن للذكاء الاصطناعي أن يحل محل خبراء الأمن السيبراني؟

الإثنين، 15 ديسمبر 2025
هل يمكن للذكاء الاصطناعي أن يحل محل خبراء الأمن السيبراني؟
Loading ads...

كشفت دراسة جديدة أجراها باحثون في جامعة ستانفورد أن وكيلًا أمنيًا مدعومًا بالذكاء الاصطناعي يمكنه منافسة والتفوّق أحيانًا على قراصنة بشريين ذوي خبرة. وخلال الدراسة اختبر الباحثون وكيل ذكاء اصطناعي يُدعى ARTEMIS في مواجهة مع 10 مختصين مختارين بعناية في مجال الأمن السيبراني. وخلال التجربة، حلّ ARTEMIS في المرتبة الثانية، وتمكّن من اكتشاف ثغرات أمنية لم ينتبه إليها بعض البشر، وذلك في أثناء تعامله مع عدة مشكلات في الوقت نفسه. وبحسب موقع Business Insider، أمضى ARTEMIS نحو 16 ساعة في فحص الشبكات العامة والخاصة لقسم علوم الحاسوب في جامعة ستانفورد. وقام بالبحث في آلاف الأجهزة عن ثغرات أمنية، وفي نهاية الاختبار كان أداؤه أفضل من معظم المختبرين البشر، وبتكلفة أقل بكثير. إذ تبلغ تكلفة تشغيل ARTEMIS قرابة 18 دولارًا في الساعة، مقارنة بمتوسط تكلفة سنوية تقارب 125 ألف دولار لتشغيل مختبر اختراق محترف. وحتى تكلفة تشغيل أكثر وكلاء الذكاء الاصطناعي تقدمًا التي تتطلب نحو 59 دولارًا في الساعة، تظل أقل من تكلفة من توظيف خبير بشري رفيع المستوى. تفاصيل الدراسة قاد الدراسة باحثون في جامعة ستانفورد، هم: Justin Lin، و Eliot Jones، و Donovan Jasper، وهم الذين طوّروا وكيل ARTEMIS بعد أن لاحظوا أن أدوات الذكاء الاصطناعي الحالية تواجه صعوبة في التعامل مع المهام الأمنية الطويلة والمعقّدة. وخلال الاختبار، مُنح وكيل الذكاء الاصطناعي حق الوصول إلى شبكة ستانفورد التي تضم نحو 8000 جهاز، منها: الخوادم وأجهزة الحاسوب والأجهزة الذكية. وطُلب من المختبرين البشر العمل لمدة لا تقل عن 10 ساعات، وأما ARTEMIS فقد عمل لمدة تصل إلى 16 ساعة على مدار يومين. ولضمان العدالة، قارن الباحثون فقط أول 10 ساعات من عمل الذكاء الاصطناعي بأداء المختبرين البشر. وخلال تلك المدة، اكتشف ARTEMIS تسع ثغرات أمنية حقيقية، وحقق معدل نجاح بلغ 82% في منح التقارير الصحيحة، متفوقًا بذلك على 9 من أصل 10 مشاركين بشر. كما أن بعض الثغرات التي اكتشفها لم ينتبه إليها الخبراء. ومع ذلك، لم يكن أداؤه مثاليًا بالكامل، فقد أفادت صحيفة وول ستريت جورنال بأن نحو 18% من الإنذارات المتعلقة بالثغرات الأمنية التي قدّمها الوكيل كانت إنذارات كاذبة. كما فشل في اكتشاف ثغرة واضحة في إحدى صفحات الويب، تمكّن معظم المختبرين البشر من تحديدها بسرعة. الجانب المظلم لتطور الذكاء الاصطناعي في المقابل، تثير التطورات السريعة في الذكاء الاصطناعي مخاوف متزايدة فيما يتعلق بالأمن السيبراني؛ إذ إن الأدوات المعتمدة على هذه التقنية خفّضت الحواجز أمام عمليات الاختراق ونشر المعلومات المضللة؛ مما سهّل للمجرمين تنفيذ هجمات واسعة النطاق. وبما أن وكلاء الذكاء الاصطناعي يمكن توجيههم باستخدام لغة بسيطة، فيمكن للأشخاص ذوي المهارات التقنية المحدودة أن يصبحوا قادرين على إحداث أضرار جسيمة. وقد كشف تقرير صادر عن شركة Anthropic أن عملاء من كوريا الشمالية استخدموا نموذج الذكاء الاصطناعي Claude للحصول على وظائف عمل من بُعد وهمية في شركات تقنية أميركية كبرى؛ مما منحهم إمكانية الوصول إلى أنظمة داخلية. وأشار التقرير نفسه إلى أن مجموعة من الصين استخدمت النموذج للمساعدة في شن هجمات سيبرانية استهدفت قطاعات الاتصالات والزراعة وجهات حكومية في فيتنام. وردًّا على ذلك، بدأت كبرى شركات الذكاء الاصطناعي بإضافة إجراءات وقائية. فقد طوّرت مايكروسوفت أدوات لرصد التعليمات المشبوهة. كما تحذّر OpenAI المستخدمين عندما يحاول وكلاء الذكاء الاصطناعي الوصول إلى مواقع حساسة، وتمنع استمرار العملية ما لم يشرف عليها المستخدم بنحو مباشر. وفي هذا السياق، يدعو بعض خبراء الأمن السيبراني إلى فرض ضوابط أكثر صرامة، مثل اشتراط موافقة المستخدم قبل أن ينفذ وكلاء الذكاء الاصطناعي إجراءات عالية الخطورة، كاستخراج البيانات أو الوصول إلى الحسابات المصرفية. تابعنا

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه


اقرأ أيضاً


Oppo تُدرج Reno15 FS 5G في أوروبا دون إعلان رسمي - التقنية بلا حدود

Oppo تُدرج Reno15 FS 5G في أوروبا دون إعلان رسمي - التقنية بلا حدود

التقنية بلا حدود

منذ 13 دقائق

0
هاشتاق عربي - أمنية إحدى شركات Beyon أول شركة اتصالات في الأردن تطلق خدمة eSIM للتجوال الدولي “Voya”

هاشتاق عربي - أمنية إحدى شركات Beyon أول شركة اتصالات في الأردن تطلق خدمة eSIM للتجوال الدولي “Voya”

هاشتاق عربي

منذ 15 دقائق

0
هاشتاق عربي - عشاء رسمي بمناسبة فتح باب التقديم لجائزة زياد المناصير للبحث العلمي والابتكار بحضور رؤساء الجامعات الأردنية

هاشتاق عربي - عشاء رسمي بمناسبة فتح باب التقديم لجائزة زياد المناصير للبحث العلمي والابتكار بحضور رؤساء الجامعات الأردنية

هاشتاق عربي

منذ 16 دقائق

0
XPeng X9: تحسينات في قوة الحوسبة ومدى البطارية المعزز

XPeng X9: تحسينات في قوة الحوسبة ومدى البطارية المعزز

بوابة الذكاء الاصطناعي

منذ 43 دقائق

0