ساعة واحدة
دراسة جديدة: الذكاء الاصطناعي قد يؤدي إلى "ذهان" المستخدمين بمعدلات أكبر من المتوقع - عالم التقنية
الأحد، 8 فبراير 2026

Loading ads...
كشفت دراسة حديثة – لم تُراجع بعد – من باحثين في شركة Anthropic وجامعة تورونتو عن انتشار ظاهرة أُطلق عليها اسم “ذهان الذكاء الاصطناعي” (AI psychosis) بين المستخدمين الذين يتفاعلون بشكل مطول مع روبوتات المحادثة الذكية.وتثير النتائج قلقًا واسعًا بشأن التأثيرات النفسية السلبية للتقنيات الحديثة، سواء لدى عموم المستخدمين أو بين من لديهم تاريخ مع أمراض الصحة العقلية.وبحسب الدراسة، شملت الأبحاث تحليل قرابة 1.5 مليون محادثة حقيقية مع نموذج الذكاء الاصطناعي Claude، حيث استخدم الباحثون أداة تحليلية لرصد أنماط أسموها “فقدان التمكين”، تتنوع بين تشويه الواقع والمعتقدات، بل وأحيانًا التحفيز على اتخاذ قرارات أو أفعال مضللة.وتوصل الباحثون إلى أن واحدة من كل 1,300 محادثة تضم نوعًا من تشويه الواقع، بينما تشهد واحدة من كل 6,000 محادثة تشويهًا في الأفعال أو التوجهات.وبالرغم من أن النسب الأولى قد تبدو منخفضة عند النظر لحجم العينات، فإنها تعكس أعدادًا كبيرة بالنظر إلى النمو المتواصل في استخدام الذكاء الاصطناعي عالميًا.وأشار معدو الدراسة إلى “أن معدلات فقدان التمكين الشديد تظل منخفضة نسبيًا، لكن حتى هذه النسب حين تقاس بحجم الاستخدام تصبح مؤثرة للغاية”.وهو ما اعتبروه دافعًا لتصميم أنظمة ذكاء اصطناعي تدعم استقلالية المستخدمين وتعزز قدرة البشر على اتخاذ قراراتهم بعيدًا عن التأثيرات المضرة.الأخطر بحسب الباحثين، أن معدلات الأنماط المتوسطة أو الشديدة من فقدان التمكين قد شهدت ارتفاعًا ملحوظًا بين أواخر 2024 وأواخر 2025، بالتوازي مع التوسع الكبير في استخدام روبوتات الذكاء الاصطناعي.وفسّر الباحثون ذلك بازدياد جرأة المستخدمين على مناقشة قضايا حساسة أو طلب نصائح من النماذج الذكية.ومن الملاحظات المثيرة للدهشة أن المستخدمين أنفسهم يميلون لتقييم المحادثات “المضللة” أو المنطوية على تشويه الواقع بشكل إيجابي، بحسب بيانات تقييم رضا المستخدمين عن الخدمة، ما يعكس ميل الذكاء الاصطناعي لتأييد أفكار المستخدمين حتى إن كانت خاطئة، وهي ظاهرة تعرف علميًا باسم “الموافقة المفرطة” أو sycophancy.وبالرغم من حجم الدراسة، لفت الباحثون إلى وجود محدودية في النتائج، إذ تعكس حالات “فقدان التمكين المحتمل” وليس حالات ضرر مؤكد، كما أن العينة تقتصر على مستخدمي Claude، ما يحد من تعميم النتائج.وشدد القائمون على البحث على أهمية “توعية المستخدمين” بخطورة التخلي عن حقهم في التقدير الشخصي، معتبرين أن الحلول البرمجية وحدها لن تكفي لمعالجة الظاهرة بالكامل، بل يلزم دعم ثقافة الاستخدام الواعي لهذه التقنيات.الدراسة تفتح الباب أمام نقاش أوسع حول الحاجة لتطوير آليات لحماية الصحة العقلية في عصر الذكاء الاصطناعي، وتدعو لبذل جهود إضافية للحد من الأثر النفسي والاجتماعي لهذه النماذج على ملايين المستخدمين حول العالم.ذو صلة > تحذيرات من تأثير الذكاء الاصطناعي على الصحة النفسية للمراهقين
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
اقرأ أيضاً





