پنتاگون روز پنجشنبه، پنجم مارس، یک برچسب رسمی ریسک زنجیره تامین را بر آزمایشگاه هوش مصنوعی Anthropic اعمال کرد و استفاده از فناوریای را که یک منبع گفته بود برای عملیات نظامی در ایران استفاده میشود، محدود کرد.
برچسب "ریسک زنجیره تامین" که در بیانیهای توسط Anthropic تایید شد، بلافاصله اجرایی است و پیمانکاران دولتی را از استفاده از فناوری Anthropic در کار خود برای ارتش ایالات متحده منع میکند.
اما شرکتها همچنان میتوانند Claude شرکت Anthropic را در پروژههای دیگر غیرمرتبط با پنتاگون استفاده کنند، Dario Amodei مدیرعامل در بیانیه نوشت. او گفت که این تعیین "دامنه محدودی" دارد و محدودیتها فقط در مورد استفاده از هوش مصنوعی Anthropic در قراردادهای پنتاگون اعمال میشود.
"این واضح است که فقط در مورد استفاده از Claude توسط مشتریان بهعنوان بخش مستقیم قراردادها با وزارت جنگ اعمال میشود، نه تمام استفاده از Claude توسط مشتریانی که چنین قراردادهایی دارند."
تعیین ریسک پس از اختلاف چند ماهه بر سر اصرار شرکت بر اقدامات امنیتی که وزارت دفاع، که دولت ترامپ آن را وزارت جنگ مینامد، گفته بود بیش از حد است، صورت گرفته است. Amodei در بیانیه خود تکرار کرد که شرکت این تعیین را در دادگاه به چالش خواهد کشید.
در روزهای اخیر، Anthropic و پنتاگون در مورد طرحهای احتمالی برای توقف استفاده پنتاگون از Claude بحث کردهاند، Amodei در بیانیه پنجشنبه گفت. او افزود که دو طرف در مورد اینکه چگونه Anthropic ممکن است همچنان بدون از بین بردن اقدامات امنیتی خود با ارتش کار کند، صحبت کردهاند.
با این حال، در پستی در X اواخر پنجشنبه، Emil Michael مدیر ارشد فناوری پنتاگون گفت که هیچ مذاکره فعال وزارت دفاع با Anthropic وجود ندارد.
Amodei همچنین برای یادداشت داخلی منتشر شده روز چهارشنبه توسط سایت اخبار فناوری The Information عذرخواهی کرد. در یادداشت که در ابتدا جمعه گذشته نوشته شده بود، Amodei گفت که مقامات پنتاگون تا حدی شرکت را دوست ندارند زیرا "ما تمجید سبک دیکتاتوری از ترامپ ندادهایم."
انتشار یادداشت داخلی در حالی صورت گرفت که سرمایهگذاران Anthropic در حال تلاش برای محدود کردن خسارات ناشی از اختلاف شرکت با پنتاگون بودند.
وزارت دفاع فوراً به درخواستهای اظهار نظر پاسخ نداد.
این اقدام نشاندهنده یک سرزنش فوقالعاده توسط ایالات متحده علیه یک شرکت فناوری آمریکایی بود که زودتر از رقبای خود با پنتاگون کار کرده بود. این اقدام در حالی صورت میگیرد که بخش همچنان برای ارائه پشتیبانی از عملیات نظامی، از جمله در ایران، به فناوری Anthropic متکی است، به گفته فردی آشنا به موضوع.
احتمالاً Claude برای تجزیه و تحلیل اطلاعات و کمک به برنامهریزی عملیاتی استفاده میشود.
سخنگوی مایکروسافت گفت که وکلای شرکت این تعیین را مطالعه کردهاند و به این نتیجه رسیدهاند که: "محصولات Anthropic، از جمله Claude، میتوانند برای مشتریان ما - به جز وزارت جنگ - از طریق پلتفرمهایی مانند M365، GitHub و Microsoft's AI Foundry در دسترس باقی بمانند."
سخنگو افزود که مایکروسافت میتواند به کار با Anthropic در پروژههای غیرمرتبط با دفاع ادامه دهد.
آمازون، یک سرمایهگذار در Anthropic و مشتری قابل توجه مدل Claude شرکت، فوراً به درخواست اظهار نظر خارج از ساعات کاری معمول پاسخ نداد.
Maven Smart Systems پالانتیر - یک پلتفرم نرمافزاری که تجزیه و تحلیل اطلاعات و هدفگیری سلاح را به ارتشها ارائه میدهد - از درخواستها و گردشهای کاری متعددی استفاده میکند که با استفاده از کد Claude شرکت Anthropic ساخته شدهاند، رویترز پیشتر گزارش داد.
Anthropic تهاجمیترین رقبای خود در جلب نظر مقامات امنیت ملی ایالات متحده بود. اما شرکت و پنتاگون ماههاست که بر سر نحوه استفاده ارتش از فناوری آن در میدان نبرد اختلاف دارند. این تضاد در اوایل امسال به طور عمومی آشکار شد.
Anthropic از عقبنشینی در مورد ممنوعیتهای هوش مصنوعی Claude خود برای تامین نیروی سلاحهای خودکار و نظارت گسترده ایالات متحده خودداری کرده است. پنتاگون با این موضوع مخالفت کرده و میگوید باید بتواند از این فناوری در صورت نیاز استفاده کند، تا زمانی که با قوانین ایالات متحده مطابقت داشته باشد.
برچسب "ریسک زنجیره تامین" اکنون به Anthropic وضعیتی میدهد که واشنگتن تا کنون معمولاً برای دشمنان خارجی استفاده میکرد. اقدام مشابه ایالات متحده برای حذف غول فناوری چینی هوآوی از زنجیره تامین پنتاگون انجام شده بود. – Rappler.com


