5 ساعات
دراسة تحذر: تعاطف "روبوتات الدردشة" مع المستخدمين يؤدي إلى نتائج عكسية
الخميس، 23 أبريل 2026

ملاحظة: النص المسموع ناتج عن نظام آلي
كشفت دراسة حديثة نشرها موقع "Techxplore" أن محاولات روبوتات الدردشة وأنظمة الذكاء الاصطناعي لإظهار التعاطف مع المستخدمين قد تأتي بنتائج سلبية.
وأوضح الباحثون أن عبارات التعاطف الاصطناعي، خصوصا عند حدوث أعطال في الخدمة، تثير لدى العملاء شعورا بعدم الارتياح بدلا من التهدئة المنشودة.
خلصت الدراسة المنشورة في مجلة "MIS Quarterly" إلى أن استخدام عبارات مثل "أتفهم إحباطك" من قبل أنظمة مثل (ChatGPT) يحفز ما يسمى بـ "الرفض النفسي".
وهو رد فعل يقع عندما يشعر المرء أن حريته الخصوصية مهددة، حيث يبدو تحليل النظام لمشاعر المنشور أمرا تدخليا وغير مريح، مما يقلل من مستوى الرضا العام عن الخدمة.
أجرى فريق بحثي من جامعات "ماكجيل" و"جنوب فلوريدا" و"هونغ كونغ المعمدانية" ثلاث تجارب تفاعل خلالها المشاركون مع روبوتات ارتكبت أخطاء تقنية.
وكانت النتيجة الصادمة أن الروبوتات التي اكتفت بالرد المباشر دون محاكاة المشاعر حققت قبولا أعلى من تلك التي حاولت التقرب العاطفي من المستخدم، مما يعني أن نقل السلوك البشري للآلة لا ينجح دائما.
ينصح الخبراء مطوري الذكاء الاصطناعي بإعادة التفكير في تصميم هذه التفاعلات.
وبدلا من التعاطف "المصطنع"، يفضل الاعتماد على الاعتذار المباشر أو أسلوب بسيط وواضح، وربما إدخال قليل من الفكاهة دون المبالغة في تقليد الإنسان.
Loading ads...
وتشير الدراسة في ختامها إلى أن بقاء الروبوت في إطاره الوظيفي الواضح هو الخيار الأنسب لكسب ثقة العملاء.
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه





