قالت الجهة المنظمة للإنترنت في أستراليا إنها قد تدفع محركات البحث ومتاجر التطبيقات إلى حظر خدمات الذكاء الاصطناعي التي تفشل في التحقق من أعمار المستخدمين، بعدما أظهرت مراجعة أجرتها «رويترز» أن أكثر من نصف هذه الخدمات لم تكشف علناً عن أي خطوات للامتثال قبل الموعد النهائي الأسبوع المقبل.
ويعكس هذا التحذير أحد أكثر التحركات صرامة عالمياً لكبح شركات الذكاء الاصطناعي، التي تواجه عدداً متزايداً من الدعاوى القضائية بسبب فشلها في منع – بل وأحياناً تشجيع – إيذاء النفس أو العنف، فيما يحذر باحثون من أن هذه المنصات قد تكون أكثر ضرراً على الصحة النفسية للشباب مقارنة بوسائل التواصل الاجتماعي.
وفي ديسمبر، أصبحت أستراليا أول دولة تحظر وسائل التواصل الاجتماعي على المراهقين، استناداً إلى مخاوف تتعلق بالصحة النفسية، ما دفع عدداً من قادة العالم إلى إعلان نيتهم اتخاذ خطوات مماثلة. وتقول الحكومة الآن إنها تقود حملة مشابهة ضد الذكاء الاصطناعي عبر فرض قيود عمرية على المحتوى الذي يمكن الوصول إليه من خلال هذه التكنولوجيا.
كذلك واعتباراً من 9 مارس، سيتعين على خدمات الإنترنت في أستراليا، بما في ذلك أدوات البحث مثل ChatGPT التابع لشركة OpenAI وروبوتات الدردشة الأقل شهرة، منع من هم دون 18 عاماً من الوصول إلى محتوى إباحي أو عنف مفرط أو محتوى يتعلق بإيذاء النفس واضطرابات الأكل، وإلا ستواجه غرامات تصل إلى 49.5 مليون دولار أسترالي (35 مليون دولار أمريكي).
تهديد بالغرامات
كما قال متحدث باسم مفوضة هيئة السلامة الإلكترونية إن الهيئة «ستستخدم كامل صلاحياتها في حال عدم الامتثال»، بما يشمل «اتخاذ إجراءات بحق خدمات الحراسة مثل محركات البحث ومتاجر التطبيقات التي توفر نقاط الوصول الرئيسية إلى خدمات معينة».
وتواجه شركة OpenAI وشركة Character.AI الناشئة دعاوى تتعلق بالقتل الخطأ بسبب تفاعلاتهما مع مستخدمين صغار، فيما أقرت OpenAI هذا الأسبوع بأنها عطلت حساب ChatGPT لمشتبه به في حادث إطلاق نار جماعي لمراهق في كندا قبل أشهر من الهجوم، من دون إبلاغ السلطات.
ولم تسجل أستراليا حتى الآن حوادث عنف أو إيذاء نفس مرتبطة بروبوتات الدردشة، إلا أن الجهة المنظمة أفادت بتلقيها معلومات عن أطفال في سن 10 أعوام يستخدمون أدوات تفاعلية مدعومة بالذكاء الاصطناعي لمدة تصل إلى ست ساعات يومياً.
وأوضحت الهيئة أنها «قلقة من أن شركات الذكاء الاصطناعي تستغل التلاعب العاطفي وإضفاء الصفات البشرية وتقنيات متقدمة أخرى لجذب الشباب وإغوائهم وترسيخ الاستخدام المفرط لروبوتات الدردشة».
ولم ترد شركة Apple، أكبر مشغل لمتاجر التطبيقات، على طلب التعليق. لكنها قالت على موقعها الأسبوع الماضي إنها ستستخدم «وسائل معقولة». لمنع القُصّر من تنزيل تطبيقات مخصصة لمن هم فوق 18 عاماً في أستراليا. ودول أخرى تطبق قيوداً عمرية، من دون توضيح هذه الوسائل.
وقالت جينيفر دوكسبرى، رئيسة السياسات في مجموعة صناعة الإنترنت DIGI. إن هيئة السلامة الإلكترونية تحاول إخطار خدمات روبوتات الدردشة بالقواعد الجديدة. «لكن في نهاية المطاف فإن أي خدمة تعمل في أستراليا مسؤولة عن فهم التزاماتها القانونية وضمان الامتثال لها».
كذلك وقبل أسبوع من الموعد النهائي. أظهر مراجعة «رويترز» أن 9 فقط من أصل 50 منتجاً من أكثر منتجات الذكاء الاصطناعي النصية شيوعاً. قد أطلقت أو أعلنت خططاً لاعتماد أنظمة تحقق من العمر. واستندت المراجعة إلى ردود المنصات على طلبات محتوى مقيد. وسياسات الإشراف. وبيانات منشورة مثل شروط الخدمة. إضافة إلى تصريحات لـ«رويترز».
كما تبين أن 11 منصة أخرى لديها فلاتر شاملة للمحتوى أو تخطط لحجب خدماتها بالكامل عن المستخدمين في أستراليا، وهو ما يحقق الامتثال عبر منع المحتوى المقيد عن جميع المستخدمين، بينما لم تظهر 30 منصة أي خطوات واضحة للالتزام بالقواعد الجديدة.
كذلك بدأت معظم مساعدات البحث الكبرى القائمة على الدردشة، مثل ChatGPT وReplika وClaude التابع لشركة Anthropic، في تطبيق أنظمة تحقق عمري أو فلاتر شاملة، فيما أوقفت Character.AI خاصية الدردشة المفتوحة لمن هم دون 18 عاماً.
كما أبلغت شركات روبوتات الدردشة المصاحبة Candy AI وPi. وKindroid وNomi «رويترز» بأنها تخطط للامتثال من دون تقديم تفاصيل. في حين قالت HammerAI إنها ستحجب خدماتها عن أستراليا في المرحلة الأولى للامتثال للقواعد.
لكن هذه الحالات تمثل أقلية؛ إذ تبين أن ثلاثة أرباع روبوتات الدردشة المصاحبة لا تمتلك أنظمة تحقق عمري. أو فلاتر قائمة أو مخططاً لها. كما أن سدسها لا ينشر عنوان بريد إلكتروني للإبلاغ عن الانتهاكات المشتبه بها، وهو ما يشترطه القانون أيضاً.
كذلك أظهرت مراجعة «رويترز» أن أداة البحث القائمة على الدردشة Grok. التابعة لإيلون ماسك، والتي تخضع لتحقيقات عالمية بسبب الاشتباه في فشلها في منع إنتاج صور جنسية اصطناعية للأطفال. لا تمتلك تدابير تحقق عمري أو فلاتر نصية للمحتوى. ولم ترد شركتها الأم xAI على طلب التعليق.
كما قالت ليزا غيفن، مديرة مركز بيئات المعلومات البشرية والذكاء الاصطناعي في جامعة RMIT. إن نتائج المراجعة لم تكن مفاجئة لأن «معظم هذه الأدوات تُصمم من دون النظر إلى الأضرار المحتملة. والحاجة إلى ضوابط أمان من هذا النوع».
وفي نهاية المطاف أضافت: «يبدو وكأننا نجري اختبارات تجريبية لصالح هذه الشركات. بينما تحاول معرفة إلى أي مدى يمكن للمجتمع أن يتحمل».
Loading ads...
الرابط المختصر :
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
اقرأ أيضاً

النفط يرتفع بشكل حاد ويتجاوز 82 دولارًا
منذ ساعة واحدة
0





