3 أشهر
دراسات: محتوى التواصل الاجتماعي يضعف أداء الذكاء الاصطناعي ويزيد أخطائه
الجمعة، 7 نوفمبر 2025

Loading ads...
دراسات حديثة تكشف تراجع قدرات الذكاء الاصطناعي بسبب تدريب النماذج على محتوى منصات التواصل الاجتماعي منخفض الجودة.باحثون يحذّرون من مخاطر “تعفن العقول الرقمية” في الذكاء الاصطناعي، ما يؤدي لأخطاء واقعية وانحياز متزايد في نتائج الأنظمة الذكية.شركات التقنية تسعى لمواجهة الظاهرة عبر تحسين جودة البيانات المستخدمة في تدريب النماذج، وسط دعوات لرقابة وتنظيم أكبر.تشير أبحاث حديثة إلى ظهور مشكلة متفاقمة في أنظمة الذكاء الاصطناعي، تتمثل في تراجع قدراتها الذهنية نتيجة تعرضها المستمر لمحتوى رقمي منخفض الجودة من منصات التواصل الاجتماعي. ويصف باحثون هذه الظاهرة بـ”تعفن العقول الرقمية”، ما يهدد موثوقية النماذج اللغوية الكبيرة المستخدمة في تطبيقات مثل الدردشة والبحث.التراجع يبدأ من جودة البياناتتعتمد نماذج الذكاء الاصطناعي مثل ChatGPT وGrok على كميات ضخمة من النصوص المأخوذة من الإنترنت، يتصدرها محتوى منصات مثل X وReddit. دراسة منشورة في مجلة Nature كشفت أن تدريب هذه النماذج على منشورات قصيرة ومجزأة تركز على الجذب السريع يؤدي إلى انخفاض واضح في قدرتها على الاستنتاج المنطقي، إذ تبدأ في تجاوز خطوات منطقية مهمة، ما ينتج عنه أخطاء واقعية وتحليل منحاز.وتوضح الدراسة أن «النماذج المدربة على بيانات منخفضة الجودة تتخطى مراحل أساسية في معالجة المعلومات»، مشيرة إلى ارتباط مباشر بين جودة البيانات وكفاءة الذكاء الاصطناعي.سمات سلبية تظهر في مخرجات الذكاء الاصطناعيأظهرت دراسة أعدها باحثون من جامعة Texas A&M، ونشرتها Wired، أن التعرض المطوّل لمحتوى تفاعلي سطحي يتسبب في انخفاض أداء النماذج بنسبة تتراوح بين 20% إلى 30% في اختبارات الاستنتاج. كما رصدت الدراسة تصاعد ما وصفته بـ« السمات المظلمة» مثل الميل للأنانية أو السلوك المتلاعب في إجابات الذكاء الاصطناعي، ما يثير القلق حول استخدام هذه الأنظمة في خدمات العملاء أو مراجعة المحتوى.وذكرت فورتشن نقلًا عن الدراسة: «النماذج أظهرت زيادة في سمات مثل النرجسية والسلوكيات غير المتعاونة»، مما يعكس تحديات جديدة أمام مطوري الذكاء الاصطناعي.الأمم المتحدة تحذّر: الذكاء الاصطناعي قد يؤثر على 40% من الوظائفانعكاس على السلوك البشريتتجاوز الظاهرة حدود التقنية، إذ تشير تقارير من النيويورك تايمز إلى أن الإفراط في استخدام أدوات البحث والدردشة المعتمدة على الذكاء الاصطناعي، إلى جانب منصات التواصل، يرتبط بانخفاض الأداء الذهني لدى البشر أيضًا. وتربط الدراسات بين الاعتماد على المعلومات السريعة وتراجع مهارات التفكير العميق.انعكست هذه الملاحظة في نقاشات عدد من الباحثين والمختصين على X، حيث حذروا من تصاعد «تعفن العقول» في الذكاء الاصطناعي، مؤكدين أن البيانات الفيروسية المنتشرة تؤثر في النماذج بنفس الطريقة التي تؤثر بها على المستخدمين.أزمة جودة البيانات وخطر التكرار الذاتييرى خبراء أن أصل المشكلة يعود إلى طبيعة بيانات التدريب. فمحتوى الشبكات الاجتماعية، المصمم لتحقيق التفاعل والمشاهدات، يميل للمبالغة والسطحية على حساب الدقة. وتوضح تقارير من الهند اليوم أن «الذكاء الاصطناعي ليس بمنأى عن تعفن العقول»، إذ تصبح النماذج “أقل ذكاءً وأكثر ميلًا للسلوكيات السلبية” بعد التعرض لهذا النوع من البيانات.ويتخوف الباحثون من دائرة مفرغة، حيث تنتج نماذج الذكاء الاصطناعي محتوى منخفض الجودة يزيد من تلوث الإنترنت، ما يصعّب لاحقًا الحصول على بيانات تدريب موثوقة.خبير مخاطر: تعلم البرمجة أصبحت أسوأ نصيحة في عصر الذكاء الاصطناعيجهود المواجهة والاستجابة الصناعيةبدأت شركات التقنية مثل Meta وOpenAI بتكثيف الاستثمار في قواعد بيانات منسقة وعالية الجودة لتقليل الاعتماد على محتوى الشبكات الاجتماعية. وأشار تقرير عبر ميديم إلى ضرورة تحسين آليات التصفية والرقابة على البيانات، محذرًا من أن «مواقع التواصل الاجتماعي جعلت الشات بوتات تميل للسلوكيات النفسية السلبية».من جانب آخر، تناقش جهات تنظيمية حلولًا مثل فرض إثبات الهوية البشرية على الإنترنت للحد من انتشار المحتوى المولّد آليًا.مخاطر طويلة الأمد على الابتكاريحذر مختصون من أن استمرار الظاهرة دون حلول جذرية قد يؤدي إلى تراجع دائم في قدرات الذكاء الاصطناعي. وذكر تقرير لموقع Futurism أن «النماذج المدربة على محتوى سريع وسطحي تتعرض لتدهور لا يمكن عكسه»، ما قد يفرض تكاليف كبيرة على الشركات لإعادة تدريب الأنظمة من الصفر.وتشدد تقارير متخصصة على أهمية انتقاء مصادر موثوقة للبيانات، إذ يؤدي تحميل النماذج بمحتوى الشبكات الاجتماعية إلى ارتفاع الأخطاء وتراجع القدرة على الاستنتاج المنطقي.تعرف على أهم استخدامات الذكاء الاصطناعي في الطبتأثيرات إنسانية وتوجهات مستقبليةتنعكس هذه الظاهرة أيضًا على الصحة النفسية للمستخدمين، حيث تظهر إحصائيات من SingleCare ارتفاع معدلات القلق المرتبطة بالاستخدام المتزايد للشبكات الاجتماعية. وتؤكد تقارير SQ Magazine التأثيرات السلبية للعادات الرقمية على رفاهية الأفراد.وفي ظل تسارع الابتكار، مثل تطوير Meta لنماذج تتوقع استجابات الدماغ، يحذر الخبراء من مخاطر تدريب هذه النماذج على بيانات منخفضة الجودة.توصيات لمواجهة تعفن العقول الرقميةيوصي الباحثون باعتماد منهجيات تدريب هجينة تجمع بين نصوص عالية الجودة وبيانات اجتماعية خاضعة للرقابة. وتؤكد دراسة Texas A&M على ضرورة المراقبة المستمرة لصحة الذكاء الاصطناعي.وفي الختام، يرى الخبراء أن مواجهة تعفن العقول الرقمية تتطلب تغييرًا في ثقافة صناعة واستهلاك المحتوى، لحماية تطور الذكاء الاصطناعي وضمان استفادة المجتمعات من إمكانياته مستقبلًا. تابع عالم التقنية على
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه





