أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" مؤخرًا، وثيقة تحدد مبادئ التعامل مع التزييف العميق، في خطوة تهدف إلى رسم معالم جديدة لعصر رقمي متقدم يتميز بالوعي والمراقبة، حيث سلطت الوثيقة الضوء على الانتشار المتسارع لتقنيات التزييف العميق على المستوى العالمي، وقدرتها المتزايدة على إنتاج محتوى مرئي وصوتي متقن إلى درجة يصعب معها تمييزه عن الحقيقة.
وأبانت الوثيقة، أن هذه التقنيات رغم إمكانياتها الإيجابية في مجالات (التعليم، والرعاية الصحية، والترفيه، والتسويق)، تحمل في الوقت ذاته مخاطر كبيرة، تشمل: (الاحتيال الإلكتروني، وانتحال الشخصيات، ونشر الأخبار والمعلومات المضللة، والتأثير المباشر على الرأي العام)، بالإضافة إلى (انتهاك خصوصية الأفراد).
وحذرت "سدايا" من تنامي حالات استخدام تقنيات تقليد الأصوات والوجوه في عمليات الاحتيال المالي، مشيرةً، إلى أن بعض الجهات تستغل تسجيلات ومكالمات مزيفة يصعب اكتشافها بالطرق التقليدية، هذه الظاهرة تضع تحديات جديدة أمام الأجهزة الرقابية والمستهلكين على حد سواء، مما يستلزم تطوير حلول تقنية وأدوات كشف متقدمة.
وأكدت الوثيقة التي أصدرتها الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا"، على أهمية التزام المطورين وصنّاع المحتوى بمجموعة من المعايير الأخلاقية والتنظيمية، بما في ذلك احترام حماية البيانات الشخصية والحصول على الموافقات اللازمة قبل استخدام أي تقنية للتزييف العميق عبر تقنيات الذكاء الاصطناعي.
كما أوصت بتبني حلول تقنية متقدمة مثل: "العلامات المائية الرقمية، وتقنيات التحقق من المصدر، وأنظمة الحوكمة" لضمان الحد من إساءة استخدام هذه التقنيات وحماية المجتمع الرقمي، ويمكن للراغبين والمهتمين الاطلاع على وثيقة مبادئ التزييف العميق من خلال الرابط الإلكتروني من هنا.
يمكنك أيضًا قراءة: سدايا تطلق هوية عام الذكاء الاصطناعي 2026
Loading ads...
يمكنكم متابعة آخر الأخبار عبر حساب سيدتي على إكس
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
اقرأ أيضاً




