خانه تکنولوژی‌های آینده جنجال آنتروپیک و پنتاگون بر سر استفاده نظامی از هوش مصنوعی
جنجال آنتروپیک و پنتاگون بر سر استفاده نظامی از هوش مصنوعی

جنجال آنتروپیک و پنتاگون بر سر استفاده نظامی از هوش مصنوعی

در این مقاله:

فشار پنتاگون بر شرکت های بزرگ فناوری جهت گسترش استفاده نظامی از هوش مصنوعی، با چالش های اخلاقی و مقاومت شرکت هایی مثل Anthropic مواجه شده است که ریسک لغو قراردادهای کلان را به همراه دارد.

پنتاگون داره شرکت های هوش مصنوعی رو تحت فشار می ذاره تا به ارتش آمریکا اجازه بدن از فناوری شون برای «تمام مقاصد قانونی» استفاده کنن، مخصوصا در زمینه استفاده نظامی از هوش مصنوعی. اما طبق گزارش جدید آکسیوس، شرکت Anthropic داره در برابر این خواسته مقاومت می کنه.

گزارش ها نشون می ده که دولت همین خواسته رو از OpenAI، گوگل و xAI و بنیانگذارانش هم داشته. این فشار برای گسترش استفاده از AI در ارتش، نشان دهنده اهمیت روزافزون استفاده نظامی از هوش مصنوعی است. یه مقام ناشناس از دولت ترامپ به آکسیوس گفته که یکی از این شرکت ها موافقت کرده، در حالی که اون دو تای دیگه ظاهرا کمی انعطاف از خودشون نشون دادن.

چالش های استفاده نظامی از هوش مصنوعی

در این بین، گزارش شده که Anthropic بیشترین مقاومت رو در برابر این نوع همکاری و استفاده نظامی از هوش مصنوعی داشته. در پاسخ هم ظاهرا پنتاگون تهدید کرده که قرارداد 200 میلیون دلاریش رو با این شرکت هوش مصنوعی لغو می کنه.

در ماه ژانویه (دی/بهمن ماه)، وال استریت ژورنال گزارش داد که اختلاف نظر شدیدی بین Anthropic و مقامات وزارت دفاع سر نحوه استفاده از مدل های Claude در راستای استفاده نظامی از هوش مصنوعی وجود داره. وال استریت ژورنال بعدا گفت که از Claude در عملیات ارتش آمریکا برای دستگیری نیکولاس مادورو، رئیس جمهور وقت ونزوئلا، استفاده شده. این نمونه ای از کاربردهای بالقوه و البته جنجالی استفاده نظامی از هوش مصنوعی است.

ملاحظات اخلاقی در استفاده نظامی از هوش مصنوعی

شرکت Anthropic هنوز پاسخی به درخواست تک کرانچ برای اظهار نظر درباره سیاست هایش در قبال استفاده نظامی از هوش مصنوعی نداده.

سخنگوی شرکت به آکسیوس گفته که این شرکت «درباره استفاده از Claude برای عملیات های خاص با وزارت جنگ صحبتی نکرده» و در عوض «روی مجموعه ای از سوالات مربوط به سیاست های استفاده تمرکز کرده؛ یعنی خط قرمزهای سفت و سخت ما در مورد سلاح های کاملا خودمختار و نظارت انبوه داخلی.» این رویکرد نشان دهنده نگرانی های اخلاقی و حقوقی پیرامون استفاده نظامی از هوش مصنوعی است.

تقابل میان نیازهای امنیتی دولت ها و استانداردهای اخلاقی شرکت های هوش مصنوعی، آینده همکاری های نظامی و تجاری را در هاله ای از ابهام قرار داده است. در حالی که برخی شرکت ها انعطاف بیشتری نشان می دهند، دیگران ترجیح می دهند برای حفظ هویت برند خود، مرزهای مشخصی در زمینه تسلیحات و نظارت تعیین کنند.

Anthropic and the Pentagon are reportedly arguing over Claude usage

نویسنده:
تاریخ بروزرسانی: فوریه 16, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما