خانه استارتاپ و سرمایه‌گذاری تلاش مدیرعامل آنتروپیک برای توافق بر سر هوش مصنوعی نظامی با پنتاگون
تلاش مدیرعامل آنتروپیک برای توافق بر سر هوش مصنوعی نظامی با پنتاگون

تلاش مدیرعامل آنتروپیک برای توافق بر سر هوش مصنوعی نظامی با پنتاگون

در این مقاله:

این گزارش به بررسی چالش های قرارداد 200 میلیون دلاری آنتروپیک با پنتاگون بر سر هوش مصنوعی نظامی و جایگزینی آن با OpenAI می پردازد که منجر به تنش های اخلاقی و حقوقی شدیدی میان مدیران این شرکت ها و مقامات دفاعی شده است.

قرارداد 200 میلیون دلاری شرکت آنتروپیک (Anthropic) با وزارت دفاع آمریکا (DOD) هفته گذشته به هم خورد. دلیلش هم این بود که دو طرف نتونستن سر میزان دسترسی آزاد نظامی ها به هوش مصنوعی نظامی آنتروپیک به توافق برسن.

مذاکرات دوباره درباره هوش مصنوعی نظامی

در حالی که این دو شرکت در پروژه های مختلفی حضور دارند و پیش از این شاهد تلاش OpenAI و Anthropic برای ورود هوش مصنوعی به سلامت بوده ایم، اما وقتی وزارت دفاع به جای آنتروپیک با OpenAI قرارداد بست، به نظر می رسید رابطه ارتش با آنتروپیک تموم شده؛ اما گزارش های جدید فایننشال تایمز و بلومبرگ میگن که آمودی مذاکراتش رو با امیل مایکل، یکی از مقامات پنتاگون، دوباره شروع کرده.

طبق گزارش ها، این گفتگوها بخشی از تلاش برای رسیدن به یه توافق میانه روی قراردادیه که مشخص می کنه پنتاگون چطور می تونه همچنان به مدل های هوش مصنوعی نظامی آنتروپیک دسترسی داشته باشه.

با توجه به تندی و تلخی هایی که بین طرفین رد و بدل شده، اگه آنتروپیک بتونه قرارداد جدیدی ببنده واقعا جای تعجب داره. اما یه توافق میانه هنوز هم می تونه برای هر دو طرف جذاب باشه؛ چون پنتاگون همین الانش هم به فناوری هوش مصنوعی نظامی آنتروپیک وابسته است و تغییر ناگهانی به سیستم های OpenAI می تونه باعث اختلال بشه.

اخلاقیات و کاربردهای هوش مصنوعی نظامی

دعوا از جایی شروع شد که داریو آمودی، مدیرعامل آنتروپیک، نسبت به بندی که به ارتش اجازه می داد از فناوری هوش مصنوعی نظامی این شرکت برای «هرگونه استفاده قانونی» استفاده کنه، ابراز نگرانی کرد. آمودی تاکید داشت که شرکت اجازه نمی ده از فناوری اش برای نظارت توده ای داخلی یا سلاح های خودکار استفاده بشه و می خواست که قرارداد این موارد رو صراحتا ممنوع کنه. وقتی آنتروپیک حاضر به پذیرش نشد، وزارت دفاع هم رفت و با OpenAI قرارداد بست.

از اون موقع، چهره های هر دو طرف خیلی راحت درباره ناراحتی هاشون حرف زدن. مایکل، آمودی رو یه «دروغگو» با «خودخداپنداری» خطاب کرد. آمودی هم در پیامی که گفته می شه این هفته برای کارکنان آنتروپیک فرستاده، تیکه هایی به وزارت دفاع و سم آلتمن، مدیرعامل OpenAI انداخت و قرارداد OpenAI رو «نمایش ایمنی» و حرف های پیرامونش رو «دروغ های محض» خوند.

آمودی در این یادداشت نوشته: «دلیل اصلی اینکه [OpenAI] پیشنهاد [وزارت دفاع] رو قبول کرد و ما نکردیم، اینه که اون ها فقط به فکر آروم کردن کارمنداشون بودن، در حالی که ما واقعا به فکر جلوگیری از سوءاستفاده از هوش مصنوعی نظامی بودیم.»

پیت هگست، وزیر دفاع، قول داده که آنتروپیک رو به عنوان «خطر زنجیره تامین» معرفی کنه؛ یعنی عملا این شرکت رو در لیست سیاه قرار بده تا نتونه با هیچ شرکت دیگه ای که در زمینه هوش مصنوعی نظامی با ارتش آمریکا همکاری داره، کار کنه. البته اون هنوز هیچ اقدام قانونی در این زمینه انجام نداده. این نوع برچسب زدن معمولا برای دشمنان خارجی نگه داشته می شه و معلوم نیست که آیا در صورت شکایت به دادگاه، پابرجا بمونه یا نه.

تقابل میان اهداف نظامی و اصول اخلاقی شرکت های هوش مصنوعی, فصل جدیدی از چالش های نظارتی را در سیلیکون ولی گشوده است. در حالی که دولت ها به دنبال ابزارهای پیشرفته برای تضمین امنیت ملی هستند، پافشاری مدیرانی چون آمودی بر محدودیت های کاربردی، نشان دهنده شکافی عمیق میان فناوری مسئولانه و نیازهای میدان نبرد است که می تواند آینده همکاری های دفاعی را به کلی تغییر دهد.

Anthropic CEO Dario Amodei could still be trying to make a deal with Pentagon

نویسنده:
تاریخ بروزرسانی: مارس 6, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما