بررسی تنش های اخیر میان آنتروپیک و پنتاگون بر سر کنترل مدل های زبانی و محدودیت های مربوط به توسعه تسلیحات خودکار هوش مصنوعی در کاربردهای نظامی.
دو هفته گذشته با کشمکش بین داریو آمودی، مدیرعامل آنتروپیک، و پیت هگست، وزیر دفاع، بر سر استفاده ارتش از هوش مصنوعی، به ویژه در زمینه تسلیحات خودکار هوش مصنوعی، سپری شد.
آنتروپیک اجازه نمی ده از مدل های هوش مصنوعیش برای نظارت همگانی روی آمریکایی ها یا در تسلیحات خودکار هوش مصنوعی که بدون دخالت انسان حمله انجام می دن، استفاده بشه. همزمان، وزیر دفاع هگست استدلال کرده که وزارت دفاع نباید با قوانین یک فروشنده محدود بشه و معتقده هرگونه «استفاده قانونی» از این فناوری باید مجاز باشه.
روز پنجشنبه (11 بهمن 1403)، آمودی علنا سیگنال داد که آنتروپیک عقب نشینی نمی کنه؛ اون هم با وجود تهدیدهایی که می گن ممکنه شرکتش به عنوان یک ریسک برای زنجیره تامین شناخته بشه. اما با توجه به سرعت بالای اخبار، بد نیست نگاهی دوباره بندازیم به اینکه دقیقا چه چیزی در این مبارزه در خطره.
در اصل، این دعوا بر سر اینه که چه کسی سیستم های قدرتمند هوش مصنوعی رو کنترل می کنه؛ شرکت هایی که اون ها رو می سازن، یا دولتی که می خواد ازشون استفاده کنه.
نگرانی آنتروپیک از تسلیحات خودکار هوش مصنوعی
همون طور که بالا گفتیم، آنتروپیک نمی خواد مدل های هوش مصنوعیش برای نظارت همگانی روی آمریکایی ها یا برای تسلیحات خودکار هوش مصنوعی بدون حضور انسان در چرخه تصمیم گیری برای هدف گیری و شلیک استفاده بشن. پیمانکاران دفاعی سنتی معمولا نظر خاصی درباره نحوه استفاده از محصولاتشون ندارن، اما آنتروپیک از همون ابتدا استدلال کرده که فناوری هوش مصنوعی خطرات منحصر به فردی داره و بنابراین به حفاظ های امنیتی خاصی هم نیاز داره. از دیدگاه این شرکت، مسئله اینه که وقتی ارتش از این فناوری استفاده می کنه، چطور می شه این حفاظ ها رو حفظ کرد.
ارتش آمریکا همین الان هم به سیستم های بسیار خودکار متکیه که برخی از اون ها مرگبار هستن. تصمیم برای استفاده از نیروی مرگبار به صورت تاریخی به عهده انسان ها بوده، اما محدودیت های قانونی کمی برای استفاده نظامی از تسلیحات خودکار هوش مصنوعی وجود داره. وزارت دفاع (DoD) به طور قاطع سیستم های تسلیحاتی کاملا خودمختار رو منع نمی کنه. طبق بخشنامه سال 2023 (1402) وزارت دفاع، سیستم های هوش مصنوعی می تونن بدون دخالت انسان اهداف رو انتخاب کنن و با اون ها درگیر بشن، به شرطی که استانداردهای خاصی رو رعایت کنن و توسط مقامات ارشد دفاعی بازبینی بشن.
دقیقا همین موضوعه که آنتروپیک رو نگران می کنه. فناوری نظامی ذاتا محرمانه ست، بنابراین اگه ارتش آمریکا در حال برداشتن قدم هایی برای خودکارسازی تصمیمات مرگبار باشه، ممکنه تا زمانی که عملیاتی نشه، ازش باخبر نشیم. و اگه از مدل های آنتروپیک استفاده کنه، ممکنه «استفاده قانونی» تلقی بشه.
یک سیستم تسلیحات خودکار هوش مصنوعی رو تصور کنید که هدفی رو اشتباه شناسایی می کنه، درگیری رو بدون اجازه انسان تشدید می کنه، یا در کسری از ثانیه تصمیمی مرگبار می گیره که هیچ کس نمی تونه به عقب برگردونه. اگه یک هوش مصنوعی با توانایی کم رو مسئول سلاح ها کنید، ماشینی بسیار سریع و با اعتمادبه نفس بالا خواهید داشت که در تصمیم گیری های حساس، عملکرد بدی داره.
هوش مصنوعی همچنین این قدرت رو داره که نظارت قانونی بر شهروندان آمریکایی رو تا حد نگران کننده ای تقویت کنه. طبق قوانین فعلی آمریکا، نظارت بر شهروندان از طریق جمع آوری پیامک ها، ایمیل ها و سایر ارتباطات امکان پذیره. هوش مصنوعی با فراهم کردن امکان تشخیص الگوها در مقیاس بزرگ به صورت خودکار، شناسایی هویت ها در مجموعه داده های مختلف، امتیازدهی پیش بینی ریسک و تحلیل مداوم رفتاری، این معادله رو تغییر می ده.
رویکرد پنتاگون در قبال تسلیحات خودکار هوش مصنوعی
استدلال پنتاگون اینه که باید بتونه فناوری آنتروپیک رو برای هر استفاده قانونی که لازم می دونه به کار بگیره، نه اینکه توسط سیاست های داخلی آنتروپیک در مواردی مثل تسلیحات خودکار هوش مصنوعی یا نظارت محدود بشه.
به طور خاص، وزیر هگست استدلال کرده که وزارت دفاع نباید با قوانین یک فروشنده محدود بشه و اون ها به «استفاده قانونی» از این فناوری خواهند پرداخت.
شان پارنل، سخنگوی ارشد پنتاگون، روز پنجشنبه در پستی در شبکه اجتماعی X گفت که این وزارتخانه هیچ علاقه ای به انجام نظارت توده ای داخلی یا به کارگیری تسلیحات خودکار هوش مصنوعی نداره.
پارنل گفت: «درخواست ما اینه: به پنتاگون اجازه بدید از مدل آنتروپیک برای تمام اهداف قانونی استفاده کنه. این یک درخواست ساده و منطقیه که جلوی آنتروپیک رو برای به خطر انداختن عملیات های حساس نظامی و احتمالا به خطر انداختن نیروهای جنگنده ما می گیره. ما اجازه نمی دیم هیچ شرکتی شرایط رو برای نحوه تصمیم گیری های عملیاتی ما تعیین کنه.»
اون اضافه کرد که آنتروپیک تا ساعت 5:01 عصر جمعه (12 بهمن 1403) به وقت شرق آمریکا فرصت داره تصمیم بگیره. اون گفت: «در غیر این صورت، ما شراکت خودمون رو با آنتروپیک قطع می کنیم و اون ها رو به عنوان یک ریسک زنجیره تامین برای وزارت جنگ (DOW) در نظر می گیریم.»
با وجود موضع وزارت دفاع مبنی بر اینکه صرفا معتقده نباید توسط سیاست های استفاده یک شرکت محدود بشه، نگرانی های وزیر هگست درباره آنتروپیک گاهی اوقات به نارضایتی های فرهنگی مرتبط به نظر رسیده. هگست در سخنرانی در دفاتر SpaceX و xAI در ماه ژانویه (دی/بهمن 1403)، علیه «هوش مصنوعی ووک» (روشن فکرزده) صحبت کرد که برخی اون رو پیش درآمدی برای دعواش با آنتروپیک دیدن.
هگست گفت: «هوش مصنوعی وزارت جنگ، ووک نخواهد بود. ما داریم سلاح ها و سیستم های آماده رزم می سازیم، نه چت بات هایی برای سالن استراحت اساتید دانشگاه های آیوی لیگ.»
خب، حالا چی میشه؟
پنتاگون تهدید کرده که یا آنتروپیک رو «ریسک زنجیره تامین» اعلام می کنه که عملا آنتروپیک رو از تجارت با دولت منع می کنه یا از قانون تولید دفاعی (DPA) برای مجبور کردن شرکت به سفارشی سازی مدلش طبق نیازهای ارتش استفاده می کنه. هگست تا ساعت 5:01 عصر جمعه به آنتروپیک مهلت داده تا پاسخ بده. اما با نزدیک شدن به مهلت مقرر، کسی نمی دونه که آیا پنتاگون تهدیدش رو عملی می کنه یا نه.
این مبارزه ای نیست که هیچ کدوم از طرفین بتونن به راحتی ازش کنار بکشن. ساچین ست، سرمایه گذار در Trousdale Ventures که روی فناوری های دفاعی تمرکز داره، می گه برچسب ریسک زنجیره تامین برای آنتروپیک می تونه به معنای «پایان کار» این شرکت باشه.
با این حال، اون گفت اگه آنتروپیک از لیست وزارت دفاع حذف بشه، ممکنه به یک مسئله امنیت ملی تبدیل بشه.
ست به تک کرانچ گفت: «وزارت دفاع مجبور میشه 6 تا 12 ماه صبر کنه تا یا OpenAI یا xAI به سطح اون ها برسن. این یک پنجره زمانی تا یک سال ایجاد می کنه که ممکنه مجبور باشن با مدلی کار کنن که بهترین نیست، بلکه دومین یا سومین مدل برتره.»
شرکت xAI در حال آماده شدن برای دریافت تاییدیه های امنیتی و جایگزینی آنتروپیکه و با توجه به رویای ماه و چشم انداز آینده SpaceX و xAI از زبان صاحبش ایلان ماسک، میشه گفت این شرکت مشکلی با دادن کنترل کامل فناوری خودش به وزارت دفاع نخواهد داشت. گزارش های اخیر نشون می ده که OpenAI ممکنه همچنان به همون خط قرمزهای آنتروپیک پایبند بمونه.
این رویارویی میان غول های فناوری و نهادهای قدرت، فصل جدیدی را در حکمرانی دیجیتال باز می کند. توازن میان امنیت ملی و اصول اخلاقی هوش مصنوعی اکنون در کانون توجه قرار گرفته و خروجی این مذاکرات، آینده همکاری های استراتژیک در سیلیکون ولی را رقم خواهد زد.