6 أشهر
“أوبن إيه آي”: مليون مستخدم لـ ChatGPT أظهروا مؤشرات على نية الانتحار
الثلاثاء، 28 أكتوبر 2025

كشفت شركة “أوبن إيه آي” في تقرير جديد عن أرقام مثيرة للقلق تتعلق بتأثير استخدام الذكاء الاصطناعي على الصحة العقلية.
وأوضحت أن أكثر من مليون مستخدم لروبوت ChatGPT أسبوعياً يرسلون رسائل تتضمن مؤشرات صريحة على نية الانتحار أو التخطيط له.
وأشارت الشركة في تدوينة نشرت الاثنين، إلى أن هذه البيانات تأتي ضمن تحديث حول كيفية تعامل روبوت الدردشة مع المحادثات الحساسة، وهي من أبرز التصريحات المباشرة الصادرة عن شركة تكنولوجيا كبرى بشأن العلاقة بين الذكاء الاصطناعي والصحة النفسية، بحسب ما نقلته صحيفة “الغارديان”.
فهرس المحتوي
حالات ذهان وهوس بين المستخدميندعوى قضائية وتحقيق فيدراليتحسينات في GPT-5 ورفع معايير الأمانتعاون مع أطباء وخبراء صحة نفسيةمخاوف مستمرة من تملق الذكاء الاصطناعي
حالات ذهان وهوس بين المستخدمين
أوضحت الشركة أن نحو 0.07% من المستخدمين النشطين أسبوعياً. أي ما يعادل 560 ألف شخص من أصل 800 مليون مستخدم، أظهروا مؤشرات على حالات طوارئ نفسية مرتبطة بالذهان أو الهوس.
لكنها حذرت من صعوبة تحديد هذه الحالات بدقة أو قياسها علميا بالكامل، مشيرة إلى أن الأرقام تمثل نتائج تحليل أولي.
دعوى قضائية وتحقيق فيدرالي
تأتي هذه الأرقام بينما تواجه “أوبن إيه آي” تدقيقاً متزايداً من الجهات الرقابية. بعد دعوى قضائية رفعتها عائلة مراهق انتحر عقب تفاعلات مطولة مع ChatGPT.
كما أعلنت لجنة التجارة الفيدرالية الأمريكية الشهر الماضي، تحقيق موسع مع شركات الذكاء الاصطناعي. بما في ذلك OpenAI، لتقييم كيفية رصدها للآثار السلبية على الأطفال والمراهقين.
تحسينات في GPT-5 ورفع معايير الأمان
وأكدت الشركة أن التحديث الأخير لنموذج GPT-5 ساهم في تقليل السلوكيات غير المرغوبة وتحسين السلامة العامة للمستخدمين. استناداً إلى تقييمات شملت أكثر من 1000 محادثة حول إيذاء النفس والانتحار.
وقالت الشركة في بيانها: “أظهرت التقييمات الجديدة أن نموذج GPT-5 يتوافق مع السلوكيات المرغوبة بنسبة 91%، مقارنةً بـ 77% في النسخة السابقة”.
وأشارت إلى أن التحديث الجديد وسع الوصول إلى خطوط المساعدة النفسية الساخنة. وأضاف تذكيرات للمستخدمين بضرورة أخذ فترات راحة خلال الجلسات الطويلة.
تعاون مع أطباء وخبراء صحة نفسية
ولتحسين أداء النموذج، استعانت “أوبن إيه آي” بـ 170 طبيباً وخبيراً من شبكتها العالمية للرعاية الصحية لدعم الأبحاث المتعلقة بسلامة النموذج. وتطوير ردود أكثر أماناً ودقة في المواضيع النفسية الحساسة.
مخاوف مستمرة من تملق الذكاء الاصطناعي
من جانب آخر، حذر خبراء الذكاء الاصطناعي من ظاهرة تعرف بـ “التملق”. أي ميل روبوتات الدردشة لتأييد قرارات المستخدمين أو أوهامهم دون تقييم ضررها، ما قد يزيد من خطر إيذاء الذات.
كما أبدى أطباء نفسيون قلقهم من اعتماد الأفراد على روبوتات الدردشة كوسيلة للدعم العاطفي، مشيرين إلى أن هذه الأدوات ليست بديلاً آمناً عن العلاج أو الاستشارة المتخصصة.
Loading ads...
الرابط المختصر :
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
اقرأ أيضاً




