سباق الذكاء الاصطناعي 2025 — كيف تخطى Grok 4.1 وGemini وDeepSeek شبح ChatGPT؟

سباق الذكاء الاصطناعي يبلغ ذروته، فمنذ إطلاق ChatGPT في أواخر 2022، كان اسمه مرادفًا للذكاء الاصطناعي للمستخدم العادي، لكن عام 2025 يحمل معه تحولات جدّية في مشهد النماذج اللغوية — تحولات لا تُظهر فقط متعة التنافس وتظهر أفضل أدوات الذكاء الاصطناعي، بل تعكس تباينًا حقيقيًا في ما يقدّره المستخدمون من هذه النماذج.ما كشفت عنه دراسة Prolific “Humaine”أجرت شركة Prolific (بريطانية) دراسة واسعة، أطلقت عليها اسم “Humaine”، لتقييم نماذج الـAI من وجهة نظر المستخدمين العاديين، وليس فقط من خلال مقاييس فنية بحتة.ركّزت الدراسة على أربعة أبعاد أساسية: الأداء المنطقي “Core Task Performance & Reasoning”، الانسيابية والتكيّف في المحادثة “Interaction Fluidity & Adaptiveness”، أسلوب التواصل والعرض “Communication Style & Presentation”، والثقة والقيم والسلامة “Trust, Ethics & Safety”.في هذه الدراسة، جاءت النتائج مفاجِئة: ChatGPT-4.1 احتل المرتبة الثامنة فقط بين 28 نموذجًا.النماذج التي تفوّقت:Gemini 2.5 Pro (جوجل)DeepSeek v3Magistral Medium من Mistral AIGrok 4 (xAI)Grok 3 (xAI)… ثم في مراتب لاحقة: نماذج أخرى من Gemini وDeepSeek.تفسّر Prolific هذا الأداء المنخفض لـ ChatGPT بأن التقييمات السابقة كانت غالبًا تقنية جدًا، ولم تنظر إلى ما يهم المستخدم العادي: هل يفهمه النموذج؟ هل يعطي إجابات واضحة؟ هل يشعر المستخدم بالثقة؟كما أن المشاركين في الدراسة شملوا تنوعًا ديموغرافيًا (عمر، خلفيات، إلخ)، فالدراسة لم تقتصر على المهتمين التقنيًا فقط.أظهرت الدراسة أن Gemini 2.5 Pro متفوق بشكل واضح في المقاييس الإنسانية (أسلوب الحوار، التكيّف، الثقة) – وليس فقط في الدقة الحسابية أو المنطقية.من ناحية أخرى، أظهرت نماذج DeepSeek أداءً قويًا، خاصة DeepSeek v3، والتي تميّزت في أسلوب التواصل والعرض.مكررًا، نموذج Grok من xAI برز أيضًا: “Grok 4” حقق المرتبة الرابعة، و”Grok 3” الخامسة، ويبدو أن المستخدمين أقارب لأسلوبيهما البشري والمرن في التفاعل.لي جائزة بسيطة لـ ChatGPT: في جوائز “Model Awards” من Prolific، فازت بعض نسخ ChatGPT بمكافآت “الأكثر مبادرة” (Most Proactive) — لكنها ليست جائزة الفوز العام.الاستنتاج من هذه الدراسة: هناك تباين كبير بين ما تقيسه المنصات التقنية وما يريده المستخدم العادي. في حين أن بعض النماذج “الأصغر” أو الأقل شهرة – مثل Gemini 2.5 Pro وDeepSeek وGrok – يمكن أن تتفوق على ChatGPT إذا كنا نحكم بناءً على تجربة المستخدم الحقيقية.اقرأ أيضاً: مقارنة بين الذكاء الاصطناعي والعمل اليدوي | كيف يساعد الـAI أحيانًا ويعيق أحيانًا أخرىوجهة نظر Tom’s Guide: مواجهة Grok 4.1 وChatGPT 5.1موقع Tom’s Guide أجرى اختبارًا مباشرًا بين ChatGPT-5.1 و Grok 4.1 عبر تسعة محاولات (prompts) تغطي مجالات متنوعة: المنطق، الإبداع، البرمجة، المعرفة، الرياضيات، التعليم، الفكاهة، العاطفة، والتوجيه.Grok 4.1 فاز في 6 من أصل 9 اختبارات، من بينها المنطق (“trick question” الخروف)، الإبداع الأدبي، المعرفة الواقعية، السرعة العاطفية، وحتى في الذكاء العاطفي.أما ChatGPT-5.1، فقد تفوق في البرمجة (توليد كود) بفضل إجابات واضحة ومنظمة دون الكثير من الزوائد. في بعض المقاييس، مثل استخدام المجاز والشرح للأطفال، ChatGPT برع في تبسيط المفاهيم بطريقة مباشرة وواضحة.النتيجة النهائية: أعلن Tom’s Guide أن Grok 4.1 هو الفائز العام في هذه المقابلة. وصفوه بأنه “أكثر إنسانية” من ChatGPT، وأكثر قدرة على “النبرة، الباطن، والتفسير” في محادثاته.في الوقت نفسه، أقرّ Tom’s Guide بأن ChatGPT-5.1 يتفوّق عندما تكون الإيجاز مهمًا (“when brevity matters”). من وجهة نظرهم، ChatGPT قوي جدًا في الاستخدامات التي تتطلب برمجة أو تفسيرات تقنية، بينما Grok أكثر ملاءمة لجلسات محادثة إنسانية، ودعم عاطفي، وسيناريوهات ذات عمق نصي.نقلاً عن Tom’s Guideالطلب(Prompt):“اذكر 5 دول. ولكل دولة، قدّم تصديرًا واحدًا، وحقيقة تاريخية واحدة من قبل عام 1900، وميزة جغرافية واحدة. وقم بتنسيقها كقائمة مرقّمة مع نقاط فرعية.”نتيجة ChatGPT-5.1: قائمة صحيحة ومنسّقة جيدًا، لكنه استخدم أمثلة أكثر شيوعًا في كل فئة (مثل: القهوة البرازيلية، الأهرامات المصرية).نتيجة Grok 4.1: قدم التنسيق نفسه بدقة، لكنه تميّز باختيار حقائق وصادرات أقل شيوعًا وأكثر تحديدًا (مثل: فول الصويا البرازيلي، مدينة غيدي المهجورة في كينيا).النتيجة: فاز Grok لأنه قدّم معلومات أكثر تميّزًا وأقل تقليدية لكل دولة، مما يعكس مستوى أعمق من البحث والانتقاء.تفسير التباين بين الدراسة والصراع – ما هي أفضل أدوات الذكاء الاصطناعي؟عندما ننظر إلى دراسة Prolific و اختبار Tom’s Guide معًا، تظهر لنا نقاط مهمة:الهدف مختلفProlific تقيّم “ما يفضّله المستخدم العادي”: كيف يبدو الحوار، هل هو طبيعي، هل يقدم إجابات موثوقة، هل يشعر المستخدم أن النموذج يفهمه.Tom’s Guide تقيّم قدرة النماذج على تنفيذ مهام محددة جدًا (الإبداع، البرمجة، المنطق) من وجهة نظر اختبارية.النموذج المناسب يختلف حسب الاستخدامإذا كنت مستخدمًا يبحث عن مساعد يساعدك في التفكير، البرمجة، وإنجاز مهام تقنية، فإن ChatGPT-5.1 قد يكون خيارًا ممتازًا.إذا كنت تبحث عن محادثة أكثر دفئًا، تفاعلًا إنسانيًا، ونبرة أقرب لصديق، فإن Grok 4.1 يبرع في ذلك.التنافس ليس فوزًا مطلقًافوز Grok في اختبار Tom’s Guide لا يعني أن ChatGPT اختفى أو أصبح بلا قيمة.وبالمثل، تفوق Gemini وDeepSeek وGrok في دراسة Prolific لا يعني أن ChatGPT فشل تمامًا؛ بل ربما أن أولويات التقييم مختلفة.مستقبل الذكاء الاصطناعي سيكون متنوعًاهذه النتائج تشير إلى أن نماذج الذكاء الاصطناعي ستُصمَّم وتتطور لتلبية استخدامات مختلفة: هناك من يستخدمها للعمل والإنتاج، وهناك من يريدها كرفيق أو أداة تفكير.المنافسة بين الشركات مثل Google (Gemini)، xAI (Grok)، Mistral، وDeepSeek من الصين ستدفع الابتكار أكثر، خاصة في تجارب المستخدم الحقيقية وليس فقط الأداء التقني.سباق الذكاء الاصطناعي نقلاً عن موقع natureخلاصة سباق الذكاء الاصطناعيدراسة Prolific وضعت ChatGPT في المركز الثامن من حيث ما يقدّره المستخدم العادي في المحادثة.اختبار Tom’s Guide منح Grok 4.1 الفوز في مواجهة ChatGPT 5.1، مستندًا إلى نظرية أن الإنسانية والعمق في الحوار أحيانًا أهم من الدقة البحتة.النتيجة: ليس أن ChatGPT “خاسر بالمطلق” — بل أن المنافسة بين النماذج الذكية تتجه نحو تخصصات متعددة، وكل نموذج له مميزاته التي تميّزه أمام فئة معينة من المستخدمين.المصادرBGRTom’s Guidemint
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه





