9 أبريل، قضت محكمة الاستئناف الفيدرالية في واشنطن العاصمة بأن يُحافَظ على تصنيف وزارة الدفاع لشركة Anthropic في إطار ما يُسمّى بـ “مخاطر سلسلة التوريد”، ورفضت طلبها بتأجيل التنفيذ؛ وما تزال معركة قانونية تدور حول الخطوط الحمراء لأخلاقيات الذكاء الاصطناعي وتعريفات الأمن القومي دون حسم نهائي.
(الخلفية المختصرة: القاضي يدعم Anthropic، ويمنع وزارة الدفاع من معاقبتها عبر “ملصق مخاطر سلسلة التوريد” الخاصّة بها)
(إضافة سياقية: ما هي Claude؟ شرح كامل للتكاليف والميزات وClaude Code وCowork — أَدق دليل من Anthropic لعام 2026)
فهرس المقال
Toggle
9 أبريل، رفضت محكمة الاستئناف الفيدرالية في واشنطن العاصمة طلب Anthropic، عملاق الذكاء الاصطناعي، بوقف التنفيذ المؤقت، وقضت بأن تُبقي وزارة الدفاع قرار تصنيف الشركة على أنها “مخاطر سلسلة التوريد”.
وكانت حيثيات المحكمة مباشرة: فمصلحة الحكومة في إدارة سلسلة توريد الذكاء الاصطناعي ضمن اعتبارات الأمن القومي تُقدَّم على الخسائر المالية التي تتحملها Anthropic. فغالبًا ما يُستخدم هذا التصنيف في العادة مع شركات تابعة لدول معادية أو مع كيانات تُعدّ تهديدًا محتملًا؛ أما اليوم فقد وقع على شركة محلية أمريكية من طراز “يونيكورن” في مجال الذكاء الاصطناعي، وهو ما يحمل دلالة لا تحتاج إلى تفسير.
بدأت الواقعة في يوليو 2025. وقّعت Anthropic مع البنتاغون عقدًا بقيمة 200 مليون دولار لدمج نماذج الذكاء الاصطناعي من Claude ضمن نظام Maven الذكي، بهدف المساعدة في تنفيذ مهام تحليل المعلومات وتحديد الأهداف.
لكن الطرفين انهارا في مفاوضاتهما في سبتمبر 2025. إذ أصرت Anthropic على وضع خطّين أحمرين أخلاقيين: رفض استخدام Claude في أنظمة أسلحة ذاتية بالكامل، ورفض استخدامه في المراقبة داخل البلاد. وتسببت هاتان الموقفان في تعارضٍ جوهري مع التوقعات التي يحملها عهد حكومة ترامب؛ ثم أصدر ترامب لاحقًا أمرًا عبر وسائل التواصل الاجتماعي يقضي بتوقف الوكالات الفيدرالية عن استخدام منتجات Anthropic، وحدّد فترة انتقال مدتها 6 أشهر.
من أواخر 2025 إلى أوائل 2026، قامت وزارة الدفاع رسميًا بإدراج Anthropic ضمن قائمة مخاطر سلسلة التوريد. وقد قطع هذا التصنيف مباشرةً أهلية Anthropic للمشاركة في عقود الدفاع الحكومية.
توجد حاليًا نتائج قضائية متعارضة في هذه المعركة القانونية. ففي أواخر مارس، وافقت محكمة فيدرالية في سان فرانسيسكو على أمر زجريٍ مبدئي يتيح لـ Anthropic الاستمرار في التعاون مع جهات حكومية غير مرتبطة بالدفاع؛ لكن حكم 9 أبريل من محكمة الاستئناف الفيدرالية في واشنطن العاصمة عزز موقف وزارة الدفاع في الإغلاق، ورفض منح أي مساحة لوقف التنفيذ المؤقت.
وهذا يعني أن Anthropic تقع حاليًا في وضع قانوني محرج: يمكنها التعاون مع بعض الجهات الحكومية، لكنها تُستبعَد من عقود الدفاع. وصرحت Anthropic بأن الدعوى تمثل انتقامًا سياسيًا، وأنها تنتهك الضمانات الدستورية، وأنها ستواصل تقديم الطعون. وسيصبح تسريع إجراءات المحاكمة هو المفتاح للمرحلة التالية.
لكن وفقًا لتقرير من مجلة Electronic Engineering Times، فمع أن Anthropic تعرضت لضربة كبيرة تجاريًا ولم تعد قادرة على المشاركة في عقود دفاع ضخمة الحجم، فإن تمسكها بمواقف أخلاقية بدا أنه تلقى ردود فعل إيجابية في سوق المستخدمين عمومًا، ما اجتذب المزيد من الشركات والأفراد الذين لديهم مخاوف بشأن أمان الذكاء الاصطناعي.
لا يقتصر أثر هذا الحكم على شركة واحدة بعينها. فهو يكشف عن تناقض أعمق على مستوى البنية: فعندما تتعارض الأطر الأخلاقية لمطوري الذكاء الاصطناعي مع تعريف الحكومة للأمن القومي، يميل ميزان النظام القانوني الحالي حاليًا إلى جهةٍ ما، وهناك إجابة أولية. وسيُعد الحكم النهائي في هذه القضية مرجعًا بعيد الأثر حول كيفية تعامل كامل قطاع التكنولوجيا مع الحكومة عند التفاوض بشأن حدود استخدام الذكاء الاصطناعي.