تصمیم دولت ترامپ برای توقف همکاری با شرکت آنتروپیک به دلیل محدودیت های اخلاقی این شرکت در استفاده از هوش مصنوعی برای مقاصد نظامی، منجر به ممنوعیت انتروپیک توسط پنتاگون و باز شدن فضا برای قراردادهای جدید با OpenAI شده است.
رئیس جمهور ترامپ در پستی در Truth Social به آژانس های فدرال دستور داد که بعد از اختلاف علنی شرکت آنتروپیک (Anthropic) با وزارت دفاع، استفاده از تمامی محصولات این شرکت رو متوقف کنن. این اقدام، که به نوعی ممنوعیت انتروپیک توسط پنتاگون را در پی داشت، یک دوره شش ماهه برای خروج تدریجی بخش هایی که از این محصولات استفاده می کنن تعیین کرد، اما تاکید شد که آنتروپیک دیگه به عنوان یه پیمانکار فدرال پذیرفته نیست.
رئیس جمهور در این پست نوشت: «ما بهش نیازی نداریم، نمی خوایمش و دیگه باهاشون معامله نخواهیم کرد.»
نکته جالب اینجاست که پست رئیس جمهور به هیچ برنامه ای برای معرفی آنتروپیک به عنوان یک «خطر برای زنجیره تامین» اشاره نکرد، در حالی که قبلا گفته شده بود این یکی از عواقب کارشونه. با این حال، پیت هگزت، وزیر دفاع، در توئیت بعدی خودش این تهدید رو عملی کرد.
وزیر هگزت نوشت: «همزمان با دستور رئیس جمهور به دولت فدرال برای توقف کامل استفاده از فناوری های آنتروپیک، من به وزارت جنگ دستور می دم که آنتروپیک رو به عنوان “خطر زنجیره تامین برای امنیت ملی” معرفی کنه. این اقدام در واقع به معنای گسترش ممنوعیت انتروپیک توسط پنتاگون به تمام پیمانکاران مرتبط بود. از همین لحظه، هیچ پیمانکار، تامین کننده یا شریکی که با ارتش ایالات متحده کار می کنه، اجازه انجام هیچ گونه فعالیت تجاری با آنتروپیک رو نداره.»
دلیل اصلی ممنوعیت انتروپیک توسط پنتاگون
اختلاف اصلی پنتاگون با آنتروپیک بر سر این بود که شرکت اجازه نمی داد از مدل های هوش مصنوعی اش برای نظارت های جمعی داخلی یا سلاح های کاملا خودمختار استفاده بشه؛ موضوعی که از نظر وزیر هگزت محدودیت های بیجایی بود. این موضع قاطع آنتروپیک در نهایت به ممنوعیت انتروپیک توسط پنتاگون منجر شد.
داریو آمودی، مدیرعامل شرکت، که پیش از این نیز دیدگاه خود درباره ریسک های اقتصادی هوش مصنوعی و رقابت بی محابای شرکت ها را بیان کرده بود، در پستی عمومی در روز پنج شنبه دوباره بر موضع خودش تاکید کرد و حاضر نشد در مورد این دو مورد کوتاه بیاد.
آمودی در اون زمان نوشت: «ترجیح قلبی ما اینه که با حفظ این دو حفاظ امنیتی درخواستی مون، به خدمت رسانی به وزارتخانه و نیروهای نظامی مون ادامه بدیم، حتی اگر این به ممنوعیت انتروپیک توسط پنتاگون منجر شود. اگه وزارتخانه تصمیم بگیره همکاری با آنتروپیک رو قطع کنه، ما تلاش می کنیم تا انتقال به یه ارائه دهنده دیگه به شکلی روان انجام بشه تا اختلالی در برنامه ریزی های نظامی، عملیات ها یا سایر ماموریت های حساس ایجاد نشه.»
گزارش ها حاکی از اونه که OpenAI از تصمیم آنتروپیک حمایت کرده. طبق گزارش BBC، سام آلتمن، مدیرعامل، روز پنج شنبه یادداشتی به کارکنان فرستاد و گفت که او هم همین «خط قرمزها» رو داره و هر قرارداد دفاعی مربوط به OpenAI هم استفاده هایی رو که «غیرقانونی یا نامناسب برای استقرار ابری باشن، مثل نظارت داخلی و سلاح های تهاجمی خودمختار» رد می کنه.
ایلیا سوتسکور، یکی از بنیان گذاران OpenAI که در نوامبر 2023 (آبان 1402) اختلافش با آلتمن خیلی علنی شد و از اون زمان شرکت هوش مصنوعی خودش رو راه انداخته، روز جمعه وارد این بحث شد و در X نوشت: «خیلی خوبه که آنتروپیک عقب نشینی نکرده و این موضوع که OpenAI هم موضع مشابهی گرفته، واقعا پرمعناست.
در آینده، موقعیت های چالش برانگیز خیلی بیشتری از این دست پیش میاد و خیلی حیاتیه که رهبران مربوطه بتونن از پس این شرایط بربیان و رقبای سرسخت اختلافات شون رو کنار بذارن. خوشحالم که امروز شاهد این اتفاق هستیم.»
اما تنها چند ساعت بعد از اینکه دولت ترامپ به آژانس های فدرال دستور داد رابطه شون رو با آنتروپیک قطع کنن، و در پی ممنوعیت انتروپیک توسط پنتاگون، OpenAI برای پر کردن این جای خالی وارد عمل شد و قراردادی رو با پنتاگون اعلام کرد. به گزارش نیویورک تایمز، OpenAI و دولت از روز چهارشنبه همین هفته جلساتی رو برای این همکاری احتمالی شروع کرده بودن.
پیامدهای ممنوعیت انتروپیک توسط پنتاگون و ظهور OpenAI
این قرارداد، به گفته آلتمن، همون اصول اصلی رو که آنتروپیک براشون جنگیده بود (ممنوعیت نظارت داخلی و سلاح های خودمختار) حفظ می کنه. این رویکرد OpenAI نشان می دهد که حتی پس از ممنوعیت انتروپیک توسط پنتاگون، اصول اخلاقی در استفاده از هوش مصنوعی همچنان یک اولویت باقی می ماند.
مطمئنا پیچ وخم های دیگه ای هم در راه خواهد بود.
آنتروپیک، OpenAI و گوگل هر کدوم در جولای گذشته (تیر ماه) قراردادهایی رو از وزارت دفاع آمریکا دریافت کرده بودن. پس از ممنوعیت انتروپیک توسط پنتاگون، در حالی که بعضی از کارکنان گوگل از آنتروپیک حمایت کردن، اما گوگل و شرکت مادرش هنوز اظهارنظری نکردن.
به روزرسانی: این داستان با گزارش های تکمیلی به روز شده است.
تحولات اخیر در رابطه با ممنوعیت فعالیت های تجاری با شرکت های هوش مصنوعی، نشان دهنده تضاد عمیق میان ارزش های اخلاقی توسعه دهندگان و نیازهای عملیاتی دولت ها است. در حالی که آنتروپیک بر مواضع خود پافشاری می کند، این جابه جایی قدرت میان پیمانکاران می تواند آینده همکاری های استراتژیک در حوزه امنیت ملی را تحت تاثیر قرار دهد.
Pentagon moves to designate Anthropic as a supply-chain risk