Contact Us
Ektisadi.com
قضاء وقانون

أنثروبيك تتحدى تصنيف البنتاغون لها كمخاطر أمنية في المحاكم

28 فبراير 2026 | 03:45 م
Anthropic Faces Legal Showdown After Pentagon Security Label

ينبع الخلاف من مخاوف أخلاقية بشأن استخدام الذكاء الاصطناعي في التطبيقات العسكرية، وخاصة الأسلحة ذاتية التشغيل.

تستعد شركة أنثروبيك، المتخصصة في مجال الذكاء الاصطناعي، لمواجهة قضائية بعد أن صنفتها وزارة الدفاع الأميركية (البنتاغون) على أنها تمثل "خطرًا على سلسلة الإمداد"، وهو إجراء يمنعها فعليًا من الحصول على عقود حكومية. ويدور الخلاف حول الاستخدام الأخلاقي للذكاء الاصطناعي في التطبيقات العسكرية، وخاصة فيما يتعلق بالأسلحة ذاتية التشغيل والمراقبة الجماعية، وفقاً لما أوردت فايننشال تايمز الجمعة.

يأتي هذا التصنيف في أعقاب رفض الشركة التنازل عن مبادئها المتعلقة بنشر تقنية الذكاء الاصطناعي "كلود" في المجالات العسكرية، وهو ما أثار غضب الرئيس السابق دونالد ترامب. وعبر ترامب، عبر حسابه على منصة Truth Social، عن رفضه السماح لشركة وصفها بأنها "يسارية متطرفة" بإملاء شروط عمل الجيش الأميركي.

في المقابل، اتهم وزير الدفاع بيت هيغسيث شركة أنثروبيك بـ "الغطرسة والخيانة" بعد فشل المفاوضات بين الجانبين. وترى أنثروبيك أن هيغسيث يفتقر إلى السلطة القانونية لتقييد استخدام "كلود" من قبل المتعاقدين لأغراض أخرى غير وزارة الدفاع. وتؤكد الشركة على أن نماذج الذكاء الاصطناعي الخاصة بها يجب ألا تستخدم في أنظمة الأسلحة الفتاكة ذاتية التشغيل أو المراقبة الجماعية المحلية، وهي المبادئ التي دافع عنها الرئيس التنفيذي داريو أمودي بقوة.

تمتد تداعيات هذا الخلاف إلى ما هو أبعد من شركة أنثروبيك نفسها. فقد سارعت شركة OpenAI، بقيادة سام ألتمان، إلى ملء الفراغ، وحصلت على صفقة لنشر نماذجها في الشبكات الحكومية السرية. كما ورد أن شركة xAI المملوكة لإيلون ماسك تقترب من اتفاق مماثل. ويشير هذا التحول إلى استعداد الحكومة الأميركية للتعامل مع شركات أخرى في هذا المجال.

من منظور استراتيجي، يكشف هذا الوضع عن التوتر المتزايد بين الابتكار التكنولوجي والاعتبارات الأخلاقية داخل القطاع الدفاعي. قرار الحكومة الأميركية بمعاملة أنثروبيك على أنها خطر على سلسلة الإمداد، وهو تصنيف كان مخصصًا في السابق لكيانات أجنبية مثل هواوي وكاسبرسكي لاب، يشير إلى تحول كبير في كيفية نظرها إلى شركات الذكاء الاصطناعي التي تتحدى سياساتها. قد يكون لهذا تداعيات على مستقبل التعاون بين القطاعين العام والخاص في مجال تطوير التقنيات الحساسة.

من المرجح أن يركز التحدي القانوني الذي وعدت به أنثروبيك على الأساس القانوني لقرار البنتاغون، حيث يرى خبراء قانونيون أن هذا التصنيف "ضعيف من الناحية القانونية". قد تحدد نتيجة هذه القضية سابقة للتفاعلات الحكومية المستقبلية مع مطوري الذكاء الاصطناعي وتشكيل الحدود الأخلاقية لنشر الذكاء الاصطناعي في سياقات الدفاع والأمن القومي.