ساعة واحدة
ترمب يوجه الوكالات الاتحادية الأميركية بوقف استخدام تكنولوجيا أنثروبيك
الجمعة، 27 فبراير 2026

وجّه الرئيس الأميركي دونالد ترمب، الجمعة، الوكالات الاتحادية إلى التوقف عن استخدام تكنولوجيا شركة "أنثروبيك" (Anthropic)، وذلك وسط خلاف بين عملاق الذكاء الاصطناعي ووزارة الحرب (البنتاجون) بشأن الضوابط المفروضة على تقنيتها.
وكتب ترمب على منصة "تروث سوشيال" إنه ستكون هناك فترة "تصفية تدريجية" تمتد لستة أشهر للوكالات، بما في ذلك وزارة الحرب، التي تستخدم منتجات "أنثروبيك".
وأضاف ترمب: "لقد ارتكب المتطرفون اليساريون في شركة (أنثروبيك) خطأً كارثياً بمحاولتهم ليّ ذراع وزارة الحرب وإجبارها على الامتثال لشروط الخدمة الخاصة بهم بدلاً من دستورنا، إن أنانيتهم تُعرّض حياة الأميركيين للخطر، وتضع جنودنا في مواجهة المخاطر، وتهدد أمننا القومي".
وتابع: "لذلك، أوجّه كل الوكالات الفيدرالية في حكومة الولايات المتحدة إلى الوقف الفوري لاستخدام تقنيات (أنثروبيك)".
وشدد على أنه "على (أنثروبيك) أن تصحح مسارها وأن تتعاون خلال هذه الفترة، وإلا فسأستخدم كامل صلاحيات الرئاسة لإجبارها على الامتثال، مع ما سيترتب على ذلك من عواقب مدنية وجنائية كبيرة".
وختم بالقول: "نحن من سيقرر مصير بلادنا، وليس شركة ذكاء اصطناعي يسارية راديكالية فقدت السيطرة ويقودها أشخاص لا يدركون شيئاً عن الواقع الحقيقي".
شروط استخدام تقنيات "أنثروبيك"
كان وزير الحرب الأميركي بيت هيجسيث قد منح "أنثروبيك" مهلة حتى الساعة الخامسة مساءً الجمعة للسماح للبنتاجون باستخدام روبوت الدردشة "كلود" (Claude) لأي وسيلة ضرورية، ضمن الحدود القانونية.
وأصرت الشركة على عدم استخدام "كلود" في المراقبة الجماعية ضد الأميركيين أو في عمليات أسلحة مستقلة بالكامل.
ومن شأن قرار ترمب أن يُحدث صدمة في وادي السيليكون، حيث استثمرت شركات التكنولوجيا مليارات الدولارات في الذكاء الاصطناعي، وتدرس أفضل السبل للتعامل مع التعاقدات مع الحكومة الفيدرالية. وتستهدف الخطوة شركة تقود تطوير الذكاء الاصطناعي، وهو ركيزة أساسية في الأجندة الاقتصادية لترمب، بحسب "بلومبرغ".
وتُعد المخاطر كبيرة بالنسبة إلى "أنثروبيك"، التي تُقدَّر قيمتها بـ380 مليار دولار ووافقت على تنفيذ أعمال بقيمة نحو 200 مليون دولار مع الجيش. كما يمثل القرار مخاطرة للحكومة نظراً إلى أن "أنثروبيك" كانت حتى وقت قريب النظام الوحيد للذكاء الاصطناعي القادر على العمل في السحابة السرّية التابعة للبنتاجون. وتُعد أداة "كلود جوف" (Claude Gov) خياراً مفضلاً بين أفراد الدفاع لسهولة استخدامها.
الاستخدام غير المقيّد لمنتجات الذكاء الاصطناعي
ومن شبه المؤكد أن الخطوة ستثير ردود فعل عكسية في وادي السيليكون. وكان موظفون في عدة شركات تكنولوجيا كبرى، من بينها "أمازون دوت كوم" (Amazon.com) و"مايكروسوفت" (Microsoft)، قد دعوا شركاتهم إلى رفض مطالب البنتاجون بالاستخدام غير المقيّد لمنتجات الذكاء الاصطناعي.
وفي وقت سابق الجمعة، ذكرت صحيفة "وول ستريت جورنال" أن سام ألتمان، الرئيس التنفيذي لشركة "أوبن إيه آي" (OpenAI)، أبدى أيضاً اعتراضه، وأبلغ الموظفين أن الشركة كانت تتحدث مع البنتاجون حول استخدام نماذجها بقيود مماثلة.
وكتب في مذكرة، بحسب الصحيفة: "نود أن نحاول المساعدة في خفض التصعيد".
وكان داريو أمودي، الرئيس التنفيذي لشركة "أنثروبيك"، قد أوضح، الخميس، أن الشركة متمسكة بموقفها. وأثار ذلك موجة انتقادات في المساء على منصات التواصل الاجتماعي من إميل مايكل، وكيل وزارة الدفاع لشؤون البحث والهندسة، الذي كتب أن أمودي "كاذب ويعاني من عقدة التعالي".
وكتب مايكل: "لا يريد شيئاً أكثر من محاولة السيطرة شخصياً على الجيش الأميركي وهو مستعد للمخاطرة بأمن أمتنا".
لكن مايكل تبنّى نبرة أكثر تصالحاً صباح الجمعة، قائلاً لتلفزيون بلومبرغ إن الوزارة مستعدة لمواصلة مناقشاتها مع "أنثروبيك".
وقال: "طالما أنهم يتصرفون بحسن نية، فنحن دائماً منفتحون على المحادثات"، مضيفاً: "حتى ذلك الموعد النهائي، أنا منفتح على مزيد من المحادثات وقد أبلغتهم بذلك".
وأشار ألتمان، في المذكرة التي اطّلعت عليها "وول ستريت جورنال"، إلى أن الشركة تسعى إلى اتفاق يسمح بنشر نماذجها في بيئات مصنفة سرّية، بشرط ألا تشمل الاستخدامات غير القانونية أو غير المناسبة للبنية السحابية، مثل المراقبة الداخلية واسعة النطاق أو الأسلحة الهجومية ذاتية التشغيل.
وأكد أن شركته تضع ما وصفه بـ"خطوط حمراء" واضحة، تشمل رفض استخدام الذكاء الاصطناعي في المراقبة الجماعية أو في الأسلحة الفتاكة ذاتية القرار، مع ضرورة بقاء العنصر البشري ضمن عمليات اتخاذ القرار الحساسة.
ولفت إلى أن جوهر الخلاف لا يتعلق بطريقة استخدام الذكاء الاصطناعي بقدر ما يتعلق بمن يملك السيطرة عليه، موضحاً أن شركة خاصة لا يمكن أن تكون أكثر نفوذاً من حكومة منتخبة ديمقراطياً، رغم إمكانية مساهمة الشركات في صياغة السياسات التقنية.
Loading ads...
وتعتقد OpenAI أنها قادرة على فرض هذه القيود عملياً عبر إجراءات تقنية، من بينها حصر تشغيل النماذج داخل بيئات سحابية بدلاً من تشغيلها محلياً، ما يقلل من احتمالات استخدامها في أنظمة أسلحة مستقلة. كما تسعى الشركة إلى حصول باحثيها على تصاريح أمنية للمساهمة في توعية الحكومة بمخاطر التكنولوجيا وحدودها.
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
اقرأ أيضاً

الأهلي... تحول فني لافت وصعود صاروخي نحو اللقب
منذ ثانية واحدة
0



