أنثروبيك" تقاضي البنتاغون بسبب تصنيفها "خطراً على سلسلة الإمداد" وسط جدل حول أخلاقيات الذكاء الاصطناعي

تقاضي "أنثروبيك" البنتاغون بسبب تصنيفها "خطرًا على سلسلة الإمداد" بعد خلافات حول الاستخدام الأخلاقي لتقنية الذكاء الاصطناعي في التطبيقات الدفاعية.
تواجه شركة "أنثروبيك" (Anthropic)، الرائدة في مجال الذكاء الاصطناعي، نزاعًا قانونيًا مع وزارة الدفاع الأمريكية (البنتاغون) ووكالات فيدرالية أخرى بعد تصنيفها كـ "خطر على سلسلة الإمداد". وقد أثار هذا التصنيف، الذي عادة ما يقتصر على الكيانات المرتبطة بالصين أو روسيا، دعوى قضائية تسعى فيها "أنثروبيك" إلى إلغاء القرار باعتباره "تعسفيًا" و"غير منطقي".
وخلفية القضية هي خلافات حول الاستخدام الأخلاقي لتقنية الذكاء الاصطناعي التي طورتها "أنثروبيك". إذ سعى البنتاغون إلى الحصول على حقوق واسعة النطاق لنشر نماذج الذكاء الاصطناعي الخاصة بـ"أنثروبيك"، بينما أصرت الشركة على وضع ضمانات محددة لمنع إساءة الاستخدام، لا سيما فيما يتعلق بالأسلحة الفتاكة ذاتية التشغيل والمراقبة الجماعية المحلية. ووفقًا لـ"فايننشال تايمز" يوم الإثنين، رفض الرئيس التنفيذي لشركة "أنثروبيك"، داريو أمودي، عقدًا مفتوحًا مع وزارة الدفاع يسمح بالاستخدام "القانوني" للتكنولوجيا.
ويُلزم تصنيف "خطر على سلسلة الإمداد"، الذي تم إضفاء الطابع الرسمي عليه الأسبوع الماضي، الشركات باستبعاد "أنثروبيك" من العقود العسكرية، بعد أن حث الرئيس السابق ترامب الوكالات الفيدرالية على التوقف عن استخدام خدمات "أنثروبيك" تمامًا. ومع ذلك، تؤكد "أنثروبيك" أن غالبية عملائها لن يتأثروا، مشيرة إلى الدعم المستمر من شركاء رئيسيين مثل أمازون ومايكروسوفت وجوجل في الأعمال غير المتعلقة بالدفاع.
وتستشهد الدعوى القضائية بمنشورات على وسائل التواصل الاجتماعي لدونالد ترامب، الذي وصف "أنثروبيك" بأنها "شركة ذكاء اصطناعي يسارية متطرفة خارجة عن السيطرة"، وبيت هيجست، الذي اتهم الشركة بـ "الخيانة"، كدليل إضافي على إجراءات ذات دوافع سياسية. وذكرت المتحدثة باسم البيت الأبيض، ليز هيوستن، أن الإدارة لن تكون "رهينة لأهواء أيديولوجية لقادة شركات التكنولوجيا الكبرى"، وفقًا لما ذكرته "فايننشال تايمز".
يُسلط هذا النزاع القانوني الضوء على التوتر المتزايد بين الابتكار التكنولوجي والاعتبارات الأخلاقية في القطاع الدفاعي. وبينما أبرمت شركة "أوبن إيه آي" (OpenAI) مؤخرًا صفقة مع البنتاغون لاستخدام نماذج الذكاء الاصطناعي الخاصة بها في مهام حساسة، فإن قضية "أنثروبيك" تؤكد المخاوف المحيطة بإساءة الاستخدام المحتملة والحاجة إلى مبادئ توجيهية واضحة. وتعكس استقالة كيتلين كالينوفسكي الأخيرة من "أوبن إيه آي"، مشيرة إلى مخاوف أخلاقية مماثلة، نقاشًا أوسع في الصناعة.
ويمكن لنتائج هذه القضية أن تؤثر بشكل كبير على مستقبل تطوير ونشر الذكاء الاصطناعي في سياقات الأمن القومي، مما قد يضع سوابق لكيفية تعامل شركات الذكاء الاصطناعي والوكالات الحكومية مع الحدود الأخلاقية. كما أنه يسلط الضوء على التسييس المتزايد لصناعة التكنولوجيا، حيث تواجه الشركات ضغوطًا للتوافق مع أجندات أيديولوجية محددة. وسيراقب المراقبون عن كثب لمعرفة ما إذا كانت المحاكم ستتدخل لحماية الشركات مما تدعي أنه انتقام ذو دوافع سياسية.



