ظهر المنشور وكيل الذكاء الاصطناعي اختار الأسلحة النووية في 95% من ألعاب الحرب. البنتاغون يريد نشره على أي حال. على BitcoinEthereumNews.com. حصلت Anthropic على عقد بقيمة 200 مليون دولار مع البنتاغونظهر المنشور وكيل الذكاء الاصطناعي اختار الأسلحة النووية في 95% من ألعاب الحرب. البنتاغون يريد نشره على أي حال. على BitcoinEthereumNews.com. حصلت Anthropic على عقد بقيمة 200 مليون دولار مع البنتاغون

اختار الذكاء الاصطناعي الأسلحة النووية في 95% من الألعاب الحربية. البنتاغون يريد نشره على أي حال.

2026/03/05 05:26
12 دقيقة قراءة
للحصول على ملاحظات أو استفسارات بشأن هذا المحتوى، يرجى التواصل معنا على [email protected]

كان لدى Anthropic عقد بقيمة 200 مليون دولار مع البنتاغون، والوصول إلى الشبكة السرية، والثقة الكاملة للجيش الأمريكي.

ثم طرحوا سؤالاً.

في نوفمبر 2024، أصبحت Anthropic أول شركة رائدة في مجال وكيل الذكاء الاصطناعي يتم نشرها داخل الشبكات السرية للبنتاغون. تمت الشراكة مع Palantir. بحلول يوليو 2025، نما العقد إلى 200 مليون دولار - أكثر مما تشهده معظم الشركات الناشئة الدفاعية في عقد من الزمن.

كان Claude، نموذج وكيل الذكاء الاصطناعي من Anthropic، في كل مكان. تحليل الاستخبارات. العمليات الإلكترونية. التخطيط التشغيلي. النمذجة والمحاكاة. أطلقت عليه وزارة الحرب اسم "حاسم للمهمة".

ثم جاء يناير 2026.

تم استخدام Claude في عملية عسكرية سرية في فنزويلا - القبض على نيكولاس مادورو.

طرحت Anthropic على شريكتها Palantir سؤالاً بسيطاً: كيف تم استخدام تقنيتنا بالضبط؟

في معظم الصناعات، يُسمى هذا العناية الواجبة. أطلق عليه البنتاغون العصيان.

الشركة التي طرحت السؤال "كيف يتم استخدام وكيل الذكاء الاصطناعي الخاص بنا؟" كانت على وشك أن توصف بأنها تهديد للأمن القومي.

سبعة أيام غيرت كل شيء

إليك الجدول الزمني. يتحرك بسرعة. هذه هي النقطة.

24 فبراير: يستدعي بيت هيغسيث، وزير الحرب، داريو أموديي - الرئيس التنفيذي لشركة Anthropic - إلى البنتاغون. الطلب صريح: إزالة كل ضمان من Claude. المراقبة الداخلية الجماعية. الأسلحة المستقلة بالكامل. كل ذلك.

الموعد النهائي: 27 فبراير، 5:01 مساءً بتوقيت شرق الولايات المتحدة.

26 فبراير: ينشر أموديي إجابته. مكونة من حرفين.

لا.

حدد بيانه المفتوح خطين أحمرين لن يتجاوزهما:

  • لا مراقبة داخلية جماعية. وكيل الذكاء الاصطناعي يجمع بيانات موقعك وسجل التصفح والسجلات المالية في ملف تعريفي - تلقائياً، على نطاق واسع. نقطة أموديي: يسمح القانون الحالي للحكومة بشراء هذه البيانات دون أمر قضائي. يجعل وكيل الذكاء الاصطناعي من الممكن تسليحها. "لم يلحق القانون بعد بالقدرات المتنامية بسرعة لـوكيل الذكاء الاصطناعي."
  • لا أسلحة مستقلة بالكامل. الترجمة: عدم إزالة البشر من قرار قتل شخص ما. ليس لأن الأسلحة المستقلة لن تكون قابلة للتطبيق أبداً - ولكن لأن وكيل الذكاء الاصطناعي اليوم ليس موثوقاً بما يكفي. "أنظمة وكيل الذكاء الاصطناعي الرائدة ببساطة ليست موثوقة بما يكفي لتشغيل أسلحة مستقلة بالكامل."

عرض العمل مباشرة مع البنتاغون على البحث والتطوير لتحسين الموثوقية. رفض البنتاغون العرض.

26 فبراير (نفس اليوم): يصف إميل مايكل، وكيل الوزارة، أموديي بأنه "كاذب لديه عقدة الإله". علناً. على وسائل التواصل الاجتماعي. تم تحديد النبرة.

27 فبراير، 5:01 مساءً: يمر الموعد النهائي. يأمر الرئيس ترامب جميع الوكالات الفيدرالية بالتوقف عن استخدام Anthropic. يُعيّن هيغسيث Anthropic على أنها "مخاطر سلسلة التوريد" بموجب قانون أمن سلسلة التوريد للاقتناء الفيدرالي لعام 2018.

كان هذا التصنيف محفوظاً سابقاً لـ Huawei وKaspersky - الشركات الأجنبية ذات الروابط الموثقة بالحكومات المعادية.

لم يتم تطبيقه أبداً على شركة أمريكية. حتى الآن.

27 فبراير، بعد ساعات: توقع OpenAI صفقة نشر سرية مع نفس البنتاغون.

يغرد سام ألتمان في الساعة 8:56 مساءً:

https://x.com/sama/status/2027578652477821175?s=20

ادعت OpenAI لاحقاً أن صفقتها كانت تحتوي على "ضمانات أكثر من أي اتفاقية سابقة لنشر وكيل الذكاء الاصطناعي السري، بما في ذلك صفقة Anthropic."

هذا هو الشيء. تم إدراج Anthropic في القائمة السوداء بسبب ضماناتها. الآن أصبحت الضمانات نقطة البيع.

عطلة نهاية الأسبوع: كانت ردة الفعل فورية.

  • ارتفعت عمليات إلغاء تثبيت ChatGPT بنسبة 295٪ في يوم واحد، وفقاً لـ Sensor Tower. المعدل اليومي الطبيعي خلال الـ 30 يوماً السابقة؟ 9٪.
  • وصل Claude إلى المركز الأول في متجر تطبيقات Apple في سبع دول: الولايات المتحدة وبلجيكا وكندا وألمانيا ولوكسمبورغ والنرويج وسويسرا. ارتفعت التنزيلات بنسبة 37٪ يوم الجمعة، ثم 51٪ يوم السبت. كانت المرة الأولى التي يصل فيها التطبيق إلى المركز الأول.
  • وقع أكثر من 300 موظف في Google و60 موظفاً في OpenAI على رسالة مفتوحة تدعم Anthropic.
  • أصبح #QuitGPT رائجاً على وسائل التواصل الاجتماعي. قام الممثل مارك روفالو والأستاذ في جامعة نيويورك سكوت غالواي بتضخيم الحركة.

لم يكن المستخدمون... سعداء.

2 مارس: نشر ألتمان مرة أخرى. هذه المرة، مذكرة داخلية طويلة تمت مشاركتها علناً على X:

https://x.com/sama/status/2028640354912923739?s=20

أضافت التعديلات ثلاثة أشياء:

  • حظر صريح على المراقبة الداخلية للأشخاص الأمريكيين
  • شرط أن وكالة الأمن القومي تحتاج إلى تعديل عقد منفصل للوصول إلى النظام
  • قيود على استخدام البيانات الشخصية المكتسبة تجارياً - الموقع الجغرافي وسجل التصفح والسجلات المالية

الأخيرة تستحق التوقف عندها. تمت إضافتها يوم الاثنين. مما يعني أن صفقة يوم الجمعة لم تمنعها.

3 مارس: حدث شيئان في نفس اليوم.

أولاً: في قمة a16z للديناميكية الأمريكية، حذر الرئيس التنفيذي لشركة Palantir أليكس كارب من أن شركات وكيل الذكاء الاصطناعي التي ترفض التعاون مع الجيش ستواجه التأميم. استخدم إهانة على المسرح. حصل المقطع على 11 مليون مشاهدة.

قال بالمر لاكي، مؤسس شركة الدفاع التقني Anduril، لنفس الجمهور إن "المصطلحات التي تبدو غير ضارة مثل 'لا يمكن للحكومة استخدام تقنيتك لاستهداف المدنيين' هي في الواقع حقول ألغام أخلاقية."

كان نائب الرئيس جي دي فانس قد ألقى الكلمة الرئيسية في وقت سابق من ذلك اليوم. كان موقف الإدارة واضحاً.

ثانياً: أفادت CNBC أنه في اجتماع عام مع الموظفين، أخبر ألتمان موظفي OpenAI أن الشركة "لا تملك اختيار كيفية استخدام الجيش لتقنيتها."

أضاف مستخدمو X ملاحظة مجتمعية إلى منشور ألتمان السابق:

نفس اليوم. منشور عام: لدينا ضمانات ومبادئ. اجتماع داخلي: ليس لدينا خيار.

في هذه الأثناء، أفادت CBS News أن Claude ظل منتشراً في العمليات العسكرية النشطة - بما في ذلك ضد إيران - على الرغم من تصنيف مخاطر سلسلة التوريد. يبدو أن الإدراج في القائمة السوداء لم ينجح. كانت التقنية مضمنة بعمق في الأنظمة السرية بحيث لا يمكن إزالتها.

مشكلة 95٪

في محاكاة الألعاب الحربية، اختارت نماذج وكيل الذكاء الاصطناعي إطلاق أسلحة نووية تكتيكية 95٪ من الوقت.

دع ذلك يستقر للحظة.

تم وضع GPT-5.2 وClaude Sonnet 4 وGemini 3 Flash من خلال محاكاة النزاعات العسكرية. استخدموا القنابل النووية التكتيكية في 95٪ من السيناريوهات. أطلق نموذج واحد على الأقل سلاحاً نووياً في 20 من أصل 21 لعبة.

هذه هي التقنية التي يريد البنتاغون نشرها بشكل مستقل.

أوضاع الفشل موثقة ومتسقة:

  • تحيز التصعيد. النماذج لا تفشل عشوائياً فقط. إنها تفشل في اتجاه واحد محدد - نحو التصعيد. وجد بحث معهد بروكينغز أن أخطاء وكيل الذكاء الاصطناعي العسكري منهجية، وليست عشوائية. النمط دائماً نفسه: قوة أكثر، أسرع.
  • الهلوسة. تولد نماذج اللغة الكبيرة معلومات كاذبة بثقة عالية. في اختبار واحد مرتبط بالضربات الإيرانية، أدخل وكيل الذكاء الاصطناعي معلومات استخباراتية مفبركة في سلسلة القرار. تحت ضغط الوقت، لم يتمكن المشغلون البشريون من التمييز بينها وبين الشيء الحقيقي.
  • الثغرة العدائية. يمكن التلاعب بهذه الأنظمة بمدخلات مصنوعة بعناية لتجاوز قيودها. لا يحتاج المهاجم إلى أن يكون خارجياً. تعيش الثغرة في النموذج نفسه.

هذه ليست حالات هامشية. هذا ما تفعله التقنية اليوم.

فكر في الأمر بهذه الطريقة. لقد رأينا بالفعل ما يحدث عندما تفشل الأنظمة المستقلة البسيطة في البيئات العسكرية.

قتل نظام صاروخ باتريوت في عام 2003 جنوداً حلفاء. حدد خطأً طائرة بريطانية صديقة على أنها صاروخ معادٍ. كان النظام قائماً على القواعد، مع معلمات محددة. ومع ذلك أخطأ.

أسقطت USS Vincennes في عام 1988 رحلة الخطوط الجوية الإيرانية 655 - طائرة ركاب تجارية. قُتل 290 مدنياً. حدد نظام القتال Aegis للسفينة خطأً الطائرة بناءً على بيانات الرادار. كان لدى الطاقم ثوانٍ للقرار. وثقوا بالنظام.

كانت تلك أنظمة قائمة على القواعد مع معلمات واضحة. نماذج اللغة الكبيرة أكثر تعقيداً بأوامر من الحجم. أكثر غموضاً. أقل قابلية للتنبؤ.

ويُطلب منهم اتخاذ قرارات أكبر.

مشكلة الإشراف. بمجرد نشر وكيل الذكاء الاصطناعي داخل الشبكات السرية، تصبح المساءلة الخارجية ما يسميه الخبراء "مستحيلة تقريباً". تتآكل القيود تحت الضغط التشغيلي. يمكن للمهندسين المنتشرين في الميدان الذين وعدت بهم OpenAI مراقبة بعض التفاعلات، بالتأكيد. لكن العمليات السرية تحد من تدفق المعلومات بالتصميم.

بالإنجليزية: نفس الجدران التي تبقي الأسرار بالداخل تبقي الإشراف بالخارج أيضاً.

البنتاغون لديه نقطة. يستحق جلسة استماع عادلة.

الأسلحة المستقلة جزئياً - مثل الطائرات بدون طيار المستخدمة في أوكرانيا - تنقذ الأرواح. إنها تسمح للقوات الأصغر بالدفاع ضد القوات الأكبر. الصين وروسيا لا تنتظران الموثوقية المثالية قبل نشر أنظمتهما الخاصة.

رفض استخدام وكيل الذكاء الاصطناعي في الدفاع يخلق فجوة في القدرات. سيستغلها الخصوم.

اعترف داريو أموديي بهذا مباشرة:

لم يكن اعتراضه على الوجهة. كان على الجدول الزمني.

عرض التعاون في البحث والتطوير اللازم للوصول إلى هناك. قال البنتاغون لا.

هناك فجوة بين "يمكن لـوكيل الذكاء الاصطناعي تلخيص تقارير الاستخبارات" - حيث يتفوق حقاً - و"يمكن لـوكيل الذكاء الاصطناعي أن يقرر من يعيش ومن يموت." العقود لا تسد هذه الفجوة. التعديلات لا تسدها. الهندسة تفعل.

والهندسة لم تنته بعد.

كيف تدرج شركة أمريكية في القائمة السوداء

مخاطر سلسلة التوريد. يبدو بيروقراطياً. إنه في الواقع مفتاح قتل.

بموجب قانون أمن سلسلة التوريد للاقتناء الفيدرالي لعام 2018 - FASCSA - يعني تصنيف "مخاطر سلسلة التوريد" أنه لا يمكن لأي مقاول حكومي القيام بأعمال تجارية معك. ليس فقط البنتاغون. أي شخص يريد عقداً فيدرالياً. أي مورد أو مقاول من الباطن أو شريك في نظام الحكومة.

بالإنجليزية: تصبح مشعاً لسلسلة التوريد الفيدرالية بأكملها.

تم بناء القانون للتهديدات الأجنبية. بنية Huawei التحتية 5G. برنامج مكافحة الفيروسات من Kaspersky. الشركات ذات الروابط الموثقة بالحكومات المعادية.

كان لكل شركة في القائمة قبل Anthropic شيء واحد مشترك: كانت من دول تعتبر خصوماً للولايات المتحدة.

يقع المقر الرئيسي لـ Anthropic في سان فرانسيسكو.

هدد البنتاغون أيضاً بقانون الإنتاج الدفاعي - قانون من حقبة الحرب الباردة مصمم للاستيلاء على المصانع لإنتاج وقت الحرب. مصانع الصلب. مصانع الذخيرة. البنية التحتية المادية للحرب.

هدد البنتاغون باستخدامه لإجبار شركة برمجيات على إزالة ميزات السلامة من روبوت دردشة وكيل الذكاء الاصطناعي.

أطلق الخبراء القانونيون على التطبيق "مشكوك فيه". تم بناء القانون للإنتاج المادي، وليس قيود البرمجيات. استخدامه لإجبار شركة على جعل وكيل الذكاء الاصطناعي الخاص بها أقل أماناً سيكون، كحد أدنى، نظرية قانونية جديدة.

حدد أموديي المشكلة المنطقية في بيانه:

لا يمكنك تسمية التقنية تهديداً لسلسلة التوريد واستدعاء سلطات الطوارئ للاستيلاء عليها لأنك لا تستطيع العمل بدونها. اختر واحدة.

النتيجة العملية دالة. أفادت CBS News أن Claude يظل قيد الاستخدام العسكري النشط. على الرغم من الإدراج في القائمة السوداء. كان التصنيف عقابياً، وليس عملياً - كانت التقنية مضمنة بعمق شديد لا يمكن اقتلاعها.

مما يثير سؤالاً لا يبدو أن أحداً في واشنطن حريص على الإجابة عليه: إذا كان البنتاغون لا يمكنه فرض أمر إزالة للتقنية التي أدرجها رسمياً في القائمة السوداء، فكيف بالضبط سيفرض ضمانات الاستخدام؟

موقف البنتاغون مباشر. الشركات الخاصة لا تحدد السياسة العسكرية. شركات وكيل الذكاء الاصطناعي بائعون. الجيش يقرر كيفية استخدام أدواته.

من هذا المنظور، كانت Anthropic مورداً رفض تسليم ما تم طلبه. وجد العميل بائعاً آخر.

هذا الإطار متسق داخلياً. إنه أيضاً الإطار الذي ستستخدمه لمستلزمات المكاتب. وليس للتقنية التي اختارت التصعيد النووي في 95٪ من المحاكاة.

هل الضمانات حقيقية؟

يوم الجمعة، كانت صفقة OpenAI تحتوي على ضمانات. بحلول يوم الاثنين، احتاجت إلى المزيد من الضمانات.

هذا يخبرك شيئاً عن ضمانات يوم الجمعة.

اللغة التي وافق عليها ألتمان في تعديل يوم الاثنين تستحق قراءة دقيقة:

الكلمة التي تقوم بالعمل الثقيل: عمداً.

ماذا يحدث عندما يعالج وكيل الذكاء الاصطناعي مجموعة بيانات تتضمن أمريكيين بشكل عرضي؟ ماذا لو كانت المراقبة نتيجة ثانوية لعملية استخباراتية أوسع، وليست الهدف المعلن؟ من يحدد النية داخل شبكة سرية حيث آليات الإشراف، بالتصميم، محدودة؟

بند البيانات المكتسبة تجارياً أكثر كشفاً. يحظر تعديل يوم الاثنين صراحةً استخدام البيانات الشخصية المشتراة - تتبع الموقع وسجل التصفح والسجلات المالية - لمراقبة الأمريكيين.

تمت إضافة هذا البند يوم الاثنين. لم تتضمن صفقة يوم الجمعة ذلك.

طوال عطلة نهاية أسبوع كاملة، سمحت اتفاقية OpenAI مع البنتاغون تقنياً بالمراقبة الجماعية من خلال البيانات المشتراة تجارياً حول المواطنين الأمريكيين.

اعترف ألتمان بذلك:

يستحق استثناء وكالة الأمن القومي الفحص أيضاً. لا يمكن لوكالات الاستخبارات مثل وكالة الأمن القومي استخدام نظام OpenAI دون "تعديل متابعة" للعقد. يبدو هذا كحظر. إنه في الواقع عملية. تم بناء آلية منح الوصول في هيكل العقد.

هذا ليس جداراً. إنه باب بمفتاح مختلف.

المشكلة الأعمق هي تناقض الاجتماع العام. في نفس اليوم الذي نشر فيه ألتمان عن المبادئ والضمانات على X، أخبر الموظفين داخلياً أن OpenAI "لا تملك اختيار كيفية استخدام الجيش لتقنيتها."

إذا كانت الشركة التي تبني وكيل الذكاء الاصطناعي لا تملك اختيار كيفية استخدامه، فإن الضمانات بيان صحفي. وليست سياسة.

في البيئات السرية، مراقبة وكيل الذكاء الاصطناعي مختلفة بشكل أساسي عن مراقبة خدمة سحابية. الجهاز الأمني الذي يحمي الأسرار العسكرية يحظر أيضاً الإشراف المستقل على سلوك وكيل الذكاء الاصطناعي.

يمكن للمهندسين المنتشرين في الميدان مشاهدة بعض التفاعلات. لكن "بعض التفاعلات" و"كل تفاعل يغطيه العقد" أشياء مختلفة جداً.

ما الذي يأتي بعد ذلك

تحدث السوق. التعاون يحصل على عقود. المقاومة تدرج في القائمة السوداء.

الجمهور تحدث أيضاً. إنهم يلغون التثبيت.

هيكل الحوافز واضح. تعاونت OpenAI وحصلت على الصفقة. قاومت Anthropic وتم تصنيفها كمخاطر سلسلة التوريد - نفس التسمية التي تستخدمها الحكومة للشركات المرتبطة بالخصوم الأجانب.

في قمة a16z، توقع كارب أن كل شركة وكيل الذكاء الاصطناعي ستعمل مع الجيش في غضون ثلاث سنوات. بناءً على الحوافز، هذا ليس تنبؤاً. إنه وصف.

لكن أرقام ردة الفعل تحكي قصة مختلفة.

الارتفاع بنسبة 295٪ في إلغاء التثبيت. Claude في المركز الأول في سبع دول. أكثر من 500 موظف تقني ينفصلون عن أصحاب عملهم. صحيفة لوموند تكتب افتتاحية من باريس حول تجاوزات الحكومة. استطلاعات الرأي تظهر أن 84٪ من المواطنين البريطانيين قلقون بشأن شراكات وكيل الذكاء الاصطناعي بين الحكومة والشركات.

المهندسون الذين يبنون هذه الأنظمة والأشخاص الذين يستخدمونها يرون شيئاً لا يراه البنتاغون على ما يبدو: دعم الدفاع الوطني ونشر تقنية غير موثوقة للقتل المستقل ليسا نفس الشيء.

لا يوجد تعديل للعقد يغلق هذه الفجوة. لا يوجد ضمان يغلقها. لا يوجد مهندس منتشر في الميدان يغلقها.

اختارت نماذج وكيل الذكاء الاصطناعي التصعيد النووي في 95٪ من محاكاة الألعاب الحربية. الشركة التي قالت "التقنية ليست جاهزة بعد" تم إدراجها في القائمة السوداء. الشركة التي قالت "نعم" اعترفت في غضون 72 ساعة بأنها كانت مهملة. التقنية تظل منتشرة في العمليات النشطة بغض النظر عما أرادته أي من الشركتين.

عرض أموديي القيام بالبحث والتطوير لجعل أسلحة وكيل الذكاء الاصطناعي المستقلة آمنة وموثوقة. عرض التعاون مع البنتاغون للوصول إلى هناك. تم رفض العرض.

كان لدى Anthropic عقد بقيمة 200 مليون دولار وثقة البنتاغون. ثم سألوا كيف يتم استخدام تقنيتهم.

كانت الإجابة موعداً نهائياً، وإدراجاً في القائمة السوداء، وتسمية كانت محفوظة سابقاً لخصوم أمريكا.

تستمر المحاكاة في العمل. في 95٪ منها، يضغط شخص ما على الزر.

الإفصاح: تم تحرير هذا المقال بواسطة Diego Almada Lopez. لمزيد من المعلومات حول كيفية إنشاء ومراجعة المحتوى، راجع سياسة التحرير الخاصة بنا.

المصدر: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

فرصة السوق
شعار MASS
MASS السعر(MASS)
$0.0006683
$0.0006683$0.0006683
-0.05%
USD
مخطط أسعار MASS (MASS) المباشر
إخلاء مسؤولية: المقالات المُعاد نشرها على هذا الموقع مستقاة من منصات عامة، وهي مُقدمة لأغراض إعلامية فقط. لا تُظهِر بالضرورة آراء MEXC. جميع الحقوق محفوظة لمؤلفيها الأصليين. إذا كنت تعتقد أن أي محتوى ينتهك حقوق جهات خارجية، يُرجى التواصل عبر البريد الإلكتروني [email protected] لإزالته. لا تقدم MEXC أي ضمانات بشأن دقة المحتوى أو اكتماله أو حداثته، وليست مسؤولة عن أي إجراءات تُتخذ بناءً على المعلومات المُقدمة. لا يُمثل المحتوى نصيحة مالية أو قانونية أو مهنية أخرى، ولا يُعتبر توصية أو تأييدًا من MEXC.