در پی تشدید اختلافات بر سر نحوه استفاده ارتش ایالات متحده از فناوریهای هوش مصنوعی، دولت دونالد ترامپ محدودیتهای بیسابقهای علیه شرکت آنتروپیک، سازنده هوش مصنوعی Claude، اعمال کرد. ریشه این درگیری که در ادامه به جزئیات آن میپردازیم، مخالفت «داریو آمودی»، مدیرعامل آنتروپیک، با درخواست پنتاگون برای استفاده آزادانه از این فناوری در مواردی نظیر «نظارت» و «سلاحهای خودمختار بدون دخالت انسان» است.
دونالد ترامپ با انتشار پیامی در شبکه اجتماعی Truth Social، آنتروپیک را یک شرکت «چپگرای افراطی» و «ووک» خواند که سعی دارد ارتش را مجبور به پیروی از قوانین خود کند. با اشاره به همین موضوع، ترامپ به تمامی نهادهای فدرال دستور داد تا استفاده از فناوری آنتروپیک را فوراً متوقف کنند.
در بخشی از بیانیه ترامپ آمده است:
«ایالات متحده آمریکا هرگز اجازه نخواهد داد یک شرکت چپگرای افراطی و ووک دیکته کند که ارتش بزرگ ما چگونه میجنگد و در جنگها پیروز میشود! دیوانههای چپگرا در آنتروپیک با تلاش برای اعمال زور علیه وزارت جنگ و وادار کردن آنها به اطاعت از قوانین خود بهجای قانون اساسی ما، اشتباهی فاجعهبار مرتکب شدهاند.»

همچنین برای نهادهایی مانند وزارت دفاع که در سطوح مختلف از این محصولات استفاده میکنند، یک دوره گذار ۶ ماهه جهت توقف استفاده از محصولات آنتروپیک تعیین شده است. ترامپ تأکید کرده که تصمیمگیری درباره جنگ صرفاً برعهده فرمانده کل قواست، نه مدیران فناوری.
«پیت هگست»، وزیر جنگ آمریکا نیز ساعاتی پس از پیام ترامپ، اقدام سختگیرانهتری را اتخاذ کرد و آنتروپیک را بهعنوان «خطری برای امنیت ملی در زنجیره تامین» معرفی کرد.
هگست اعلام کرد از این پس هیچ پیمانکار یا تأمینکنندهای که با ارتش آمریکا کار میکند، حق ندارد با آنتروپیک فعالیت تجاری داشته باشد (موضوعی که میتواند غولهایی نظیر آمازون و گوگل را تحت تأثیر قرار دهد). او موضع آنتروپیک را نماد نوعدوستی معیوب توصیف کرد که ایدئولوژی دره سیلیکون را بالاتر از جان سربازان آمریکایی قرار میدهد.

در مقابل آنتروپیک اعلام کرد که هیچ میزان از ارعاب و تنبیه نمیتواند موضع آنها را در قبال سلاحهای خودمختار و نظارت انبوه تغییر دهد. این شرکت ضمن ابراز تأسف عمیق، اعلام کرد که معرفی این شرکت بهعنوان «خطری در زنجیره تأمین» از نظر قانونی بیاساس است و برای لغو آن به دادگاه شکایت خواهد کرد.
آنتروپیک در بیانیه خود تأکید کرده که وزیر جنگ از نظر قانونی (طبق ماده 10 USC 3252) اختیار ندارد پیمانکاران را از استفاده از هوش مصنوعی این شرکت برای سایر مشتریانشان منع کند:
«هیچ میزان از ارعاب یا مجازات از سوی وزارت جنگ، موضع ما را در قبال نظارت انبوه داخلی یا سلاحهای کاملاً خودمختار تغییر نخواهد داد. ما هرگونه برچسب خطر زنجیره تأمین را در دادگاه به چالش خواهیم کشید. وزیر جنگ اختیار قانونی لازم برای پشتیبانی از این اظهارات [مبنی بر منع استفاده پیمانکاران از این هوش مصنوعی برای سایر مشتریانشان] را ندارد.»

این تصمیم موجی از شوک را در دره سیلیکون به همراه داشته است؛ تا جایی که کارشناسان آن را «تحریم یک شرکت آمریکایی توسط دولت آمریکا» خواندهاند. درهمینحال، سم آلتمن، مدیرعامل OpenAI، اعلام کرده که شرکتش با ارتش به توافق رسیده است، اما خطوط قرمزی را برای جلوگیری از کاربرد سلاحهای خودمختار در قرارداد خود گنجانده است.