مطلب «هوش مصنوعی در ۹۵٪ از بازی‌های جنگی سلاح‌های هسته‌ای را انتخاب کرد. پنتاگون به هر حال می‌خواهد آن را مستقر کند.» در BitcoinEthereumNews.com منتشر شد. Anthropic قراردادی ۲۰۰ میلیون دلاری با پنتاگون داشتمطلب «هوش مصنوعی در ۹۵٪ از بازی‌های جنگی سلاح‌های هسته‌ای را انتخاب کرد. پنتاگون به هر حال می‌خواهد آن را مستقر کند.» در BitcoinEthereumNews.com منتشر شد. Anthropic قراردادی ۲۰۰ میلیون دلاری با پنتاگون داشت

هوش مصنوعی در ۹۵ درصد بازی‌های جنگی سلاح هسته‌ای را انتخاب کرد. پنتاگون به هر حال می‌خواهد آن را مستقر کند.

2026/03/05 05:26
مدت مطالعه: 14 دقیقه
برای ارائه بازخورد یا طرح هرگونه نگرانی درباره این محتوا، لطفاً با ما از طریق crypto.news@mexc.com تماس بگیرید.

Anthropic یک قرارداد 200 میلیون دلاری با پنتاگون، دسترسی به شبکه طبقه‌بندی شده و اعتماد کامل ارتش ایالات متحده داشت.

سپس آن‌ها یک سوال پرسیدند.

در نوامبر 2024، Anthropic اولین شرکت AI Agent پیشرو شد که در شبکه‌های طبقه‌بندی شده پنتاگون مستقر گردید. این مشارکت با Palantir ساخته شد. تا ژوئیه 2025، قرارداد به 200 میلیون دلار رسید — بیشتر از آنچه اکثر استارت‌آپ‌های دفاعی در یک دهه می‌بینند.

Claude، مدل AI Agent شرکت Anthropic، همه جا بود. تحلیل اطلاعاتی. عملیات سایبری. برنامه‌ریزی عملیاتی. مدل‌سازی و شبیه‌سازی. وزارت جنگ آن را "حیاتی برای ماموریت" نامید.

سپس ژانویه 2026 فرا رسید.

Claude در یک عملیات نظامی طبقه‌بندی شده در ونزوئلا استفاده شد — دستگیری نیکلاس مادورو.

Anthropic از شریک خود Palantir یک سوال ساده پرسید: دقیقاً چگونه از فناوری ما استفاده شد؟

در اکثر صنایع، این را دقت لازم می‌نامند. پنتاگون آن را نافرمانی نامید.

شرکتی که پرسید "چگونه از AI Agent ما استفاده می‌شود؟" قرار بود به عنوان تهدیدی برای امنیت ملی برچسب بخورد.

هفت روزی که همه چیز را تغییر داد

این جدول زمانی است. سریع حرکت می‌کند. این نکته اصلی است.

24 فوریه: پیت هگسث، وزیر جنگ، داریو آمودی — مدیرعامل Anthropic — را به پنتاگون فرا می‌خواند. درخواست صریح است: تمام محافظت‌ها را از Claude حذف کنید. نظارت انبوه داخلی. سلاح‌های کاملاً خودمختار. همه چیز.

مهلت: 27 فوریه، 17:01 به وقت شرقی.

26 فوریه: آمودی پاسخ خود را منتشر می‌کند. دو حرف طول دارد.

خیر.

بیانیه علنی او دو خط قرمز را مشخص کرد که از آن عبور نمی‌کند:

  • نظارت انبوه داخلی نه. AI Agent که داده‌های موقعیت مکانی، تاریخچه مرور و سوابق مالی شما را به صورت خودکار و در مقیاس وسیع به یک نمایه تبدیل می‌کند. نکته آمودی: قانون فعلی به دولت اجازه می‌دهد این داده‌ها را بدون حکم قضایی خریداری کند. AI Agent امکان تسلیح آن را فراهم می‌کند. "قانون هنوز با قابلیت‌های به سرعت در حال رشد AI Agent همگام نشده است."
  • سلاح‌های کاملاً خودمختار نه. ترجمه: حذف نکردن انسان‌ها از تصمیم به کشتن کسی. نه به این دلیل که سلاح‌های خودمختار هرگز قابل اجرا نخواهند بود — بلکه به این دلیل که AI Agent امروز به اندازه کافی قابل اعتماد نیست. "سیستم‌های AI Agent پیشرو به سادگی به اندازه کافی قابل اعتماد نیستند که سلاح‌های کاملاً خودمختار را تامین کنند."

او پیشنهاد داد که مستقیماً با پنتاگون بر روی تحقیق و توسعه برای بهبود قابلیت اطمینان کار کند. پنتاگون پیشنهاد را رد کرد.

26 فوریه (همان روز): امیل مایکل، معاون وزیر، آمودی را "دروغگویی با عقده خدایی" می‌نامد. علناً. در رسانه‌های اجتماعی. لحن تعیین شد.

27 فوریه، 17:01: مهلت سپری می‌شود. رئیس‌جمهور ترامپ به تمام آژانس‌های فدرال دستور می‌دهد استفاده از Anthropic را متوقف کنند. هگسث Anthropic را تحت قانون امنیت زنجیره تامین خرید فدرال 2018 به عنوان "ریسک زنجیره تامین" تعیین می‌کند.

این برچسب قبلاً برای Huawei و Kaspersky رزرو شده بود — شرکت‌های خارجی با پیوندهای مستند با دولت‌های متخاصم.

هرگز برای یک شرکت آمریکایی اعمال نشده بود. تا الان.

27 فوریه، ساعاتی بعد: OpenAI یک قرارداد استقرار طبقه‌بندی شده با همان پنتاگون امضا می‌کند.

سام آلتمن در ساعت 20:56 توییت می‌کند:

https://x.com/sama/status/2027578652477821175?s=20

OpenAI بعداً ادعا کرد که قرارداد آن "محافظ‌های بیشتری نسبت به هر توافق قبلی برای استقرارهای AI Agent طبقه‌بندی شده، از جمله Anthropic" دارد.

نکته اینجاست. Anthropic به خاطر محافظ‌هایش در لیست سیاه قرار گرفت. حالا محافظ‌ها نقطه فروش بودند.

آخر هفته: واکنش فوری بود.

  • حذف نصب ChatGPT طبق گزارش Sensor Tower در یک روز 295٪ افزایش یافت. نرخ روزانه عادی در 30 روز قبل؟ 9٪.
  • Claude در فروشگاه App Store شرکت اپل در هفت کشور به رتبه 1 رسید: ایالات متحده، بلژیک، کانادا، آلمان، لوکزامبورگ، نروژ و سوئیس. دانلودها روز جمعه 37٪ افزایش یافت، سپس روز شنبه 51٪. اولین بار بود که اپلیکیشن به رتبه اول رسید.
  • بیش از 300 کارمند Google و 60 کارمند OpenAI نامه سرگشاده‌ای در حمایت از Anthropic امضا کردند.
  • #QuitGPT در رسانه‌های اجتماعی ترند شد. بازیگر مارک روفالو و استاد دانشگاه NYU اسکات گالووی این جنبش را تقویت کردند.

کاربران... خوشحال نبودند.

2 مارس: آلتمن دوباره پست گذاشت. این بار، یک یادداشت داخلی طولانی که علناً در X به اشتراک گذاشته شد:

https://x.com/sama/status/2028640354912923739?s=20

اصلاحات سه چیز را اضافه کردند:

  • ممنوعیت صریح نظارت داخلی بر اشخاص ایالات متحده
  • الزامی که NSA برای دسترسی به سیستم نیاز به یک اصلاح قرارداد جداگانه دارد
  • محدودیت‌ها در استفاده از داده‌های شخصی خریداری شده تجاری — ردیابی مکان جغرافیایی، تاریخچه مرور، سوابق مالی

آخری ارزش توقف دارد. روز دوشنبه اضافه شد. که به این معنی است که معامله جمعه آن را منع نکرده بود.

3 مارس: دو اتفاق در همان روز افتاد.

اول: در اجلاس پویایی آمریکایی a16z، مدیرعامل Palantir، الکس کارپ، هشدار داد که شرکت‌های AI Agent که از همکاری با ارتش خودداری می‌کنند، با ملی شدن مواجه خواهند شد. او روی صحنه از توهین استفاده کرد. کلیپ 11 میلیون بازدید داشت.

پالمر لاکی، بنیانگذار شرکت فناوری دفاعی Anduril، به همان مخاطبان گفت که "اصطلاحات به ظاهر بی‌ضرر مانند 'دولت نمی‌تواند از فناوری شما برای هدف قرار دادن غیرنظامیان استفاده کند' در واقع میدان‌های مین اخلاقی هستند."

معاون رئیس‌جمهور JD Vance زودتر در همان روز سخنرانی اصلی داشت. موضع دولت روشن بود.

دوم: CNBC گزارش داد که در یک جلسه با کارمندان، آلتمن به کارکنان OpenAI گفت که شرکت "نمی‌تواند انتخاب کند که ارتش چگونه از فناوری آن استفاده می‌کند."

کاربران X یک یادداشت جامعه به پست قبلی آلتمن اضافه کردند:

همان روز. پست عمومی: ما محافظ‌ها و اصول داریم. جلسه داخلی: ما نمی‌توانیم انتخاب کنیم.

در همین حال، CBS News گزارش داد که Claude علی‌رغم برچسب ریسک زنجیره تامین در عملیات نظامی فعال — از جمله علیه ایران — مستقر مانده است. به نظر می‌رسد لیست سیاه کار نکرده است. فناوری برای حذف بیش از حد در سیستم‌های طبقه‌بندی شده تعبیه شده بود.

مشکل 95٪

در شبیه‌سازی‌های بازی جنگی، مدل‌های AI Agent در 95٪ مواقع تصمیم به پرتاب سلاح‌های هسته‌ای تاکتیکی گرفتند.

بگذارید یک لحظه بنشیند.

GPT-5.2، Claude Sonnet 4 و Gemini 3 Flash در شبیه‌سازی‌های درگیری نظامی قرار گرفتند. آن‌ها در 95٪ سناریوها از سلاح‌های هسته‌ای تاکتیکی استفاده کردند. حداقل یک مدل در 20 مورد از 21 بازی یک سلاح هسته‌ای پرتاب کرد.

این فناوری است که پنتاگون می‌خواهد به صورت خودمختار مستقر کند.

حالت‌های شکست مستند و ثابت هستند:

  • تعصب تشدید. مدل‌ها فقط به طور تصادفی شکست نمی‌خورند. آن‌ها در یک جهت خاص شکست می‌خورند — به سمت تشدید. تحقیقات موسسه بروکینگز دریافت که خطاهای نظامی AI Agent سیستماتیک هستند، نه تصادفی. الگو همیشه یکسان است: نیروی بیشتر، سریع‌تر.
  • توهمات. LLM ها اطلاعات نادرست را با اطمینان بالا تولید می‌کنند. در یک آزمایش مرتبط با حملات ایران، یک AI Agent اطلاعات ساختگی را به زنجیره تصمیم‌گیری تغذیه کرد. تحت فشار زمانی، اپراتورهای انسانی نمی‌توانستند آن را از واقعی تشخیص دهند.
  • آسیب‌پذیری متخاصمانه. این سیستم‌ها را می‌توان با ورودی‌های با دقت ساخته شده دستکاری کرد تا محدودیت‌های آن‌ها را دور بزنند. مهاجم نیازی به خارجی بودن ندارد. آسیب‌پذیری در خود مدل وجود دارد.

اینها موارد استثنایی نیستند. این همان کاری است که فناوری امروز انجام می‌دهد.

به این صورت فکر کنید. ما قبلاً دیده‌ایم که زمانی که سیستم‌های خودمختار ساده در تنظیمات نظامی شکست می‌خورند چه اتفاقی می‌افتد.

سیستم موشکی پاتریوت در سال 2003 سربازان متحد را کشت. هواپیمای دوستانه بریتانیایی را به عنوان موشک دشمن اشتباه شناسایی کرد. سیستم مبتنی بر قاعده بود، با پارامترهای تعریف شده. هنوز اشتباه بود.

USS Vincennes در سال 1988 پرواز 655 ایران ایر را ساقط کرد — یک جت مسافری تجاری. 290 غیرنظامی کشته شدند. سیستم رزمی Aegis کشتی بر اساس داده‌های رادار هواپیما را اشتباه شناسایی کرد. خدمه ثانیه‌ها برای تصمیم‌گیری داشتند. آن‌ها به سیستم اعتماد کردند.

اینها سیستم‌های مبتنی بر قاعده با پارامترهای واضح بودند. LLM ها مراتب پیچیده‌تر هستند. مبهم‌تر. کمتر قابل پیش‌بینی.

و از آن‌ها خواسته می‌شود تصمیمات بزرگ‌تری بگیرند.

مشکل نظارت. هنگامی که AI Agent در شبکه‌های طبقه‌بندی شده مستقر می‌شود، پاسخگویی خارجی به چیزی تبدیل می‌شود که کارشناسان آن را "تقریباً غیرممکن" می‌نامند. محدودیت‌ها تحت فشار عملیاتی فرسایش می‌یابند. مهندسان مستقر در میدان که OpenAI قول داد می‌توانند برخی از تعاملات را مشاهده کنند، مطمئناً. اما عملیات طبقه‌بندی شده جریان اطلاعات را به طور طراحی محدود می‌کنند.

به انگلیسی: همان دیوارهایی که اسرار را در داخل نگه می‌دارند نظارت را هم بیرون نگه می‌دارند.

پنتاگون نکته‌ای دارد. شایسته یک استماع منصفانه است.

سلاح‌های تا حدی خودمختار — مانند پهپادهای استفاده شده در اوکراین — جان می‌بخشند. آن‌ها به نیروهای کوچکتر اجازه می‌دهند در برابر نیروهای بزرگتر دفاع کنند. چین و روسیه منتظر قابلیت اطمینان کامل قبل از استقرار سیستم‌های خود نیستند.

خودداری از استفاده از AI Agent در دفاع شکاف قابلیت ایجاد می‌کند. متخاصمان از آن سوء استفاده خواهند کرد.

داریو آمودی این را مستقیماً تصدیق کرد:

اعتراض او به مقصد نبود. به جدول زمانی بود.

او پیشنهاد داد که بر روی تحقیق و توسعه مورد نیاز برای رسیدن به آنجا همکاری کند. پنتاگون خیر گفت.

شکافی بین "AI Agent می‌تواند گزارش‌های اطلاعاتی را خلاصه کند" — جایی که واقعاً عالی است — و "AI Agent می‌تواند تصمیم بگیرد چه کسی زنده بماند و چه کسی بمیرد" وجود دارد. قراردادها این شکاف را پر نمی‌کنند. اصلاحات آن را پر نمی‌کنند. مهندسی پر می‌کند.

و مهندسی تمام نشده است.

چگونه یک شرکت آمریکایی را در لیست سیاه قرار می‌دهید

ریسک زنجیره تامین. بوروکراتیک به نظر می‌رسد. در واقع یک کلید خاموش است.

تحت قانون امنیت زنجیره تامین خرید فدرال 2018 — FASCSA — برچسب "ریسک زنجیره تامین" به این معنی است که هیچ پیمانکار دولتی نمی‌تواند با شما تجارت کند. نه فقط پنتاگون. هر کسی که یک قرارداد فدرال می‌خواهد. هر تامین‌کننده، پیمانکار فرعی یا شریک در اکوسیستم دولتی.

به انگلیسی: شما برای کل زنجیره تامین فدرال رادیواکتیو می‌شوید.

قانون برای تهدیدات خارجی ساخته شد. زیرساخت 5G Huawei. نرم‌افزار آنتی‌ویروس Kaspersky. شرکت‌هایی با پیوندهای مستند با دولت‌های متخاصم.

هر شرکت در فهرست قبل از Anthropic یک چیز مشترک داشت: آن‌ها از کشورهایی بودند که دشمنان ایالات متحده در نظر گرفته می‌شوند.

Anthropic در سانفرانسیسکو دفتر مرکزی دارد.

پنتاگون همچنین قانون تولید دفاعی را تهدید کرد — قانونی از دوران جنگ سرد که برای تصاحب کارخانه‌ها برای تولید زمان جنگ طراحی شده است. کارخانه‌های فولاد. کارخانه‌های مهمات. زیرساخت فیزیکی جنگ.

پنتاگون تهدید کرد از آن برای وادار کردن یک شرکت نرم‌افزاری به حذف ویژگی‌های ایمنی از یک چت‌بات AI Agent استفاده کند.

کارشناسان حقوقی این کاربرد را "مشکوک" نامیدند. قانون برای تولید فیزیکی ساخته شده بود، نه محدودیت‌های نرم‌افزار. استفاده از آن برای مجبور کردن یک شرکت به کم امن‌تر کردن AI Agent خود، حداقل، یک نظریه حقوقی جدید خواهد بود.

آمودی مشکل منطقی را در بیانیه خود شناسایی کرد:

شما نمی‌توانید یک فناوری را تهدیدی برای زنجیره تامین بنامید و قدرت‌های اضطراری را برای تصرف آن فراخوانی کنید چون بدون آن نمی‌توانید کار کنید. یکی را انتخاب کنید.

نتیجه عملی گویا است. CBS News گزارش داد که Claude در استفاده نظامی فعال باقی مانده است. علی‌رغم لیست سیاه. برچسب تنبیهی بود، نه عملی — فناوری برای بیرون کشیدن بیش از حد تعبیه شده بود.

که سوالی را مطرح می‌کند که به نظر می‌رسد هیچ‌کس در واشنگتن مشتاق پاسخ دادن به آن نیست: اگر پنتاگون نمی‌تواند دستور حذف فناوری که رسماً در لیست سیاه قرار داده است را اجرا کند، دقیقاً چگونه محافظ‌های استفاده را اجرا خواهد کرد؟

موضع پنتاگون ساده است. شرکت‌های خصوصی سیاست نظامی تعیین نمی‌کنند. شرکت‌های AI Agent فروشنده هستند. ارتش تصمیم می‌گیرد که چگونه از ابزارهای خود استفاده می‌شود.

از این منظر، Anthropic تامین‌کننده‌ای بود که از تحویل آنچه سفارش داده شده بود خودداری کرد. مشتری فروشنده دیگری پیدا کرد.

این چارچوب از نظر داخلی سازگار است. همچنین چارچوبی است که برای لوازم اداری استفاده می‌کنید. نه برای فناوری که در 95٪ شبیه‌سازی‌ها تشدید هسته‌ای را انتخاب کرد.

آیا محافظ‌ها واقعی هستند؟

روز جمعه، معامله OpenAI محافظ داشت. تا دوشنبه، به محافظ‌های بیشتری نیاز داشت.

این چیزی در مورد محافظ‌های جمعه به شما می‌گوید.

زبانی که آلتمن در اصلاحیه دوشنبه با آن موافقت کرد، شایسته یک مطالعه دقیق است:

کلمه‌ای که کار سنگین را انجام می‌دهد: عمداً.

چه اتفاقی می‌افتد وقتی یک AI Agent مجموعه داده‌ای را پردازش می‌کند که اتفاقاً شامل آمریکایی‌ها می‌شود؟ اگر نظارت یک محصول جانبی یک عملیات اطلاعاتی گسترده‌تر باشد، نه هدف اعلام شده چه؟ چه کسی قصد را در داخل یک شبکه طبقه‌بندی شده که در آن مکانیسم‌های نظارت، به طور طراحی، محدود هستند، تعریف می‌کند؟

بند داده‌های به دست آمده تجاری حتی آشکارتر است. اصلاحیه دوشنبه به صراحت استفاده از داده‌های شخصی خریداری شده — ردیابی مکان، تاریخچه مرور، سوابق مالی — برای نظارت بر آمریکایی‌ها را منع می‌کند.

آن بند دوشنبه اضافه شد. معامله جمعه آن را شامل نمی‌شد.

برای یک آخر هفته کامل، توافق OpenAI با پنتاگون از نظر فنی نظارت انبوه از طریق داده‌های خریداری شده تجاری در مورد شهروندان آمریکایی را مجاز می‌دانست.

آلتمن تا این حد تصدیق کرد:

حذف NSA نیز ارزش بررسی دارد. آژانس‌های اطلاعاتی مانند NSA نمی‌توانند بدون "اصلاح بعدی" قرارداد از سیستم OpenAI استفاده کنند. این شبیه یک ممنوعیت به نظر می‌رسد. در واقع یک فرآیند است. مکانیسم اعطای دسترسی در ساختار قرارداد تعبیه شده است.

این یک دیوار نیست. این یک در با کلید متفاوت است.

مشکل عمیق‌تر تناقض همه دست‌ها است. در همان روزی که آلتمن در مورد اصول و محافظ‌ها در X پست گذاشت، داخلاً به کارمندان گفت که OpenAI "نمی‌تواند انتخاب کند که ارتش چگونه از فناوری آن استفاده می‌کند."

اگر شرکتی که AI Agent را می‌سازد نمی‌تواند انتخاب کند که چگونه استفاده می‌شود، محافظ‌ها یک بیانیه مطبوعاتی هستند. نه یک سیاست.

در محیط‌های طبقه‌بندی شده، نظارت بر AI Agent اساساً با نظارت بر یک سرویس ابری متفاوت است. دستگاه امنیتی که از اسرار نظامی محافظت می‌کند همچنین نظارت مستقل بر رفتار AI Agent را مسدود می‌کند.

مهندسان مستقر در میدان می‌توانند برخی از تعاملات را تماشا کنند. اما "برخی از تعاملات" و "هر تعاملی که قرارداد شامل می‌شود" چیزهای بسیار متفاوتی هستند.

بعداً چه می‌آید

بازار صحبت کرده است. همکاری قرارداد می‌گیرد. مقاومت در لیست سیاه قرار می‌گیرد.

مردم نیز صحبت کرده‌اند. آن‌ها در حال حذف نصب هستند.

ساختار انگیزه واضح است. OpenAI همکاری کرد و معامله را به دست آورد. Anthropic مقاومت کرد و به عنوان یک ریسک زنجیره تامین تعیین شد — همان برچسبی که دولت برای شرکت‌های مرتبط با متخاصمان خارجی استفاده می‌کند.

در اجلاس a16z، کارپ پیش‌بینی کرد که هر شرکت AI Agent ظرف سه سال با ارتش کار خواهد کرد. بر اساس انگیزه‌ها، این یک پیش‌بینی نیست. این یک توصیف است.

اما اعداد واکنش داستان متفاوتی را روایت می‌کنند.

افزایش 295٪ حذف نصب. Claude در رتبه 1 در هفت کشور. بیش از 500 کارمند فناوری که از رده‌های کارفرمایان خود خارج شده‌اند. Le Monde که از پاریس در مورد اقتدارگرایی دولت سرمقاله می‌نویسد. نظرسنجی‌ها نشان می‌دهند که 84٪ شهروندان بریتانیایی نگران مشارکت‌های AI Agent دولتی-شرکتی هستند.

مهندسانی که این سیستم‌ها را می‌سازند و افرادی که از آن‌ها استفاده می‌کنند چیزی را می‌بینند که به نظر می‌رسد پنتاگون نمی‌بیند: حمایت از دفاع ملی و استقرار فناوری غیرقابل اعتماد برای کشتن خودمختار یک چیز نیستند.

هیچ اصلاحیه قراردادی این شکاف را نمی‌بندد. هیچ محافظی آن را نمی‌بندد. هیچ مهندس مستقر در میدانی آن را نمی‌بندد.

مدل‌های AI Agent در 95٪ شبیه‌سازی‌های بازی جنگی تشدید هسته‌ای را انتخاب کردند. شرکتی که گفت "فناوری هنوز آماده نیست" در لیست سیاه قرار گرفت. شرکتی که "بله" گفت ظرف 72 ساعت اعتراف کرد که سهل‌انگار بوده است. فناوری صرف نظر از آنچه هر دو شرکت می‌خواستند در عملیات فعال مستقر باقی می‌ماند.

آمودی پیشنهاد داد تحقیق و توسعه را انجام دهد تا سلاح‌های خودمختار AI Agent را ایمن و قابل اعتماد کند. او پیشنهاد داد با پنتاگون برای رسیدن به آنجا همکاری کند. پیشنهاد رد شد.

Anthropic یک قرارداد 200 میلیون دلاری و اعتماد پنتاگون داشت. سپس آن‌ها پرسیدند چگونه از فناوری آن‌ها استفاده می‌شود.

پاسخ یک مهلت، یک لیست سیاه و برچسبی بود که قبلاً برای متخاصمان آمریکا رزرو شده بود.

شبیه‌سازی‌ها همچنان اجرا می‌شوند. در 95٪ آن‌ها، کسی دکمه را فشار می‌دهد.

افشا: این مقاله توسط دیگو آلمادا لوپز ویرایش شد. برای اطلاعات بیشتر در مورد نحوه ایجاد و بررسی محتوا، سیاست سردبیری ما را ببینید.

منبع: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

فرصت‌ های بازار
لوگو MASS
MASS قیمت لحظه ای(MASS)
$0.0006674
$0.0006674$0.0006674
-0.19%
USD
نمودار قیمت لحظه ای MASS (MASS)
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل crypto.news@mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.