تنش های اخیر بین وزارت دفاع آمریکا و آنتروپیک بر سر برچسب «ریسک امنیتی»، ابعاد پیچیده و نگران کننده چالش هوش مصنوعی نظامی را در زمینه کنترل و حاکمیت بر فناوری های نوین جنگی برجسته کرده است.
بررسی چالش هوش مصنوعی نظامی و امنیت ملی
وزارت دفاع آمریکا سه شنبه شب اعلام کرد که شرکت آنتروپیک (Anthropic) یک «ریسک غیرقابل قبول برای امنیت ملی» ایجاد می کنه، مسئله ای که به وضوح نشان دهنده ابعاد جدیدی در مواجهه با چالش هوش مصنوعی نظامی است. این اولین واکنش رسمی این سازمان به شکایت های این آزمایشگاه هوش مصنوعی علیه تصمیم ماه گذشته پیت هگست، وزیر دفاع، برای معرفی این شرکت به عنوان ریسک زنجیره تامین بود. آنتروپیک در بخشی از شکایت های خودش از دادگاه خواسته بود که فعلا جلوی اجرای این برچسب توسط وزارت دفاع رو بگیره.
اصل استدلال وزارت دفاع که در یک پرونده 40 صفحه ای در دادگاه فدرال کالیفرنیا مطرح شده، این نگرانی هست که اگه آنتروپیک حس کنه «خط قرمزهای شرکتش» داره نادیده گرفته می شه، ممکنه قبل یا حین «عملیات های جنگی»، برای «غیرفعال کردن فناوری خودش یا تغییر پیشگیرانه رفتار مدلش» تلاش کنه. این موضوع به نگرانی ها درباره ثبات و کنترل چالش هوش مصنوعی نظامی دامن می زند.
پیامدها و ابعاد چالش هوش مصنوعی نظامی
آنتروپیک تابستان گذشته یک قرارداد 200 میلیون دلاری با پنتاگون امضا کرد تا فناوری خودش رو در سیستم های طبقه بندی شده مستقر کنه. در مذاکرات بعدی سر شرایط قرارداد، آنتروپیک گفت که نمی خواد از سیستم های هوش مصنوعیش برای نظارت جمعی بر آمریکایی ها استفاده بشه و این فناوری برای استفاده در تصمیم گیری های مربوط به هدف گیری یا شلیک سلاح های مرگبار آماده نیست. این اختلافات، گویای پیچیدگی های مرتبط با توسعه و استقرار چالش هوش مصنوعی نظامی است. پنتاگون هم اعتراض کرد که یک شرکت خصوصی نباید برای نحوه استفاده ارتش از فناوری تعیین تکلیف کنه.
خیلی از سازمان ها علیه برخورد وزارت دفاع با آنتروپیک صحبت کردن و معتقدن که این وزارتخانه می تونست فقط قراردادش رو تموم کنه. چندین شرکت فناوری و کارمندهاشون – از جمله اپن ای آی، گوگل که پیشتر مرزهای قابلیت هوش مصنوعی را تبیین کرده بود و مایکروسافت – و همین طور گروه های حقوقی، اظهارنامه هایی رو در حمایت از آنتروپیک به دادگاه ارائه دادن. این حمایت ها نشان دهنده ابعاد گسترده چالش هوش مصنوعی نظامی و نیاز به شفافیت در این حوزه است.
آنتروپیک در شکایت های خودش، وزارت دفاع رو به نقض حقوق متمم اول قانون اساسی و تنبیه شرکت بر اساس دلایل ایدئولوژیک متهم کرده است. این دعوای حقوقی می تواند سرنوشت آینده پروژه های مرتبط با چالش هوش مصنوعی نظامی را تحت تاثیر قرار دهد.
جلسه رسیدگی به درخواست آنتروپیک برای صدور حکم موقت، برای سه شنبه هفته آینده برنامه ریزی شده. این پرونده نقطه عطفی در مدیریت چالش هوش مصنوعی نظامی خواهد بود.
آنتروپیک بلافاصله به درخواست برای اظهارنظر پاسخ نداد.
این رویارویی حقوقی و فنی میان غول های هوش مصنوعی و سازمان های نظامی، اهمیت تعیین چارچوب های دقیق برای استفاده از تکنولوژی در امنیت ملی را بیش از پیش نمایان می کند. ایجاد توازن میان نوآوری های تجاری و الزامات دفاعی، کلید پایداری سیستم های هوشمند در آینده خواهد بود.
DOD says Anthropic’s ‘red lines’ make it an ‘unacceptable risk to national security’