جنجال هوش مصنوعی پنتاگون با ورود OpenAI به قراردادهای نظامی و چالش های حقوقی شرکت آنتروپیک ابعاد تازه ای پیدا کرده است که باعث نگرانی استارتاپ ها از همکاری با دولت فدرال می شود.
در عرض کمی بیشتر از یک هفته، مذاکرات در مورد استفاده پنتاگون از فناوری کلود (Claude) شرکت آنتروپیک، که با استخدام وکلا در مسیر عرضه اولیه خود قرار دارد، به بن بست خورد. این رویداد آغازگر جنجال هوش مصنوعی پنتاگون بود، جایی که دولت ترامپ آنتروپیک را به عنوان یک «خطر برای زنجیره تامین» معرفی کرد و این شرکت هوش مصنوعی هم اعلام کرد که در دادگاه علیه این تصمیم مبارزه می کنه.
در این بین، OpenAI سریعا قرارداد خودش رو اعلام کرد که باعث واکنش های منفی زیادی شد؛ تا جایی که کاربرا شروع کردن به حذف نصب ChatGPT و همین باعث شد کلودِ آنتروپیک به صدر جدول های اپ استور برسه. علاوه بر این، حداقل یکی از مدیرهای ارشد OpenAI به خاطر نگرانی از اینکه این خبر بدون رعایت چارچوب های امنیتی لازم و با عجله اعلام شده، از سمتش استعفا داد.
ابعاد جدید جنجال هوش مصنوعی پنتاگون
در آخرین قسمت از پادکست اکوئیتی (Equity) تک کرانچ، من به همراه کریستن کوروسِک و شان اوکین در مورد اینکه این اتفاق چه معنایی برای استارتاپ های دیگه ای داره که می خوان با دولت فدرال، مخصوصا پنتاگون همکاری کنن، بحث کردیم. کریستن این سوال رو مطرح کرد که: «آیا قراره شاهد تغییر رویه باشیم؟»
شان اشاره کرد که این وضعیت از چندین جهت غیرعادیه؛ بخشی به خاطر اینکه OpenAI و کلود محصولاتی می سازن که «هیچ کس نمی تونه دربارشون سکوت کنه». و نکته مهم تر اینکه، این یک اختلاف نظر بر سر اینه که «چطور از فناوری های اون ها برای کشتن آدم ها استفاده بشه یا نشه»؛ پس طبیعیه که جنجال هوش مصنوعی پنتاگون زیر ذره بین بیشتری قرار بگیره.
با این حال، کریستن معتقد بود که این وضعیتیه که باید باعث بشه «هر استارتاپی کمی درنگ کنه» و از این اتفاقات درس بگیره.
در ادامه می تونید پیش نمایشی از گفتگوی ما رو که برای کوتاهی و وضوح بیشتر ویرایش شده، بخونید.
کریستن: من در عجبم که آیا استارتاپ های دیگه هم دارن به اتفاقاتی که برای دولت فدرال، به ویژه پنتاگون و آنتروپیک افتاده نگاه می کنن؟ اون بحث ها و کشمکش ها رو می بینن و آیا در مورد اینکه سراغ بودجه های فدرال برن یا نه، تردید می کنن؟ آیا قراره شاهد تغییر لحن و رویه باشیم؟
شان: من هم در این باره فکر می کنم. به نظرم تا حدی در کوتاه مدت جواب منفیه؛ چون وقتی واقعا به همه شرکت های مختلف فکر می کنید، چه استارتاپ باشن چه شرکت های جاافتاده لیست فورچون 500 که با دولت و به خصوص وزارت دفاع یا پنتاگون کار می کنن، برای خیلی هاشون این فعالیت ها چندان جلب توجه نمی کنه.
جنرال موتورز مدت هاست که برای ارتش خودروهای دفاعی می سازه و روی نسخه های تمام برقی و خودران اون ها هم کار کرده. این جور اتفاقات همیشه میفته ولی هیچ وقت سر زبون ها نمی افته. به نظرم مشکلی که OpenAI و آنتروپیک توی هفته گذشته باهاش روبرو شدن و منجر به جنجال هوش مصنوعی پنتاگون شد، اینه که این ها شرکت هایی هستن که محصولاتی می سازن که کلی آدم ازشون استفاده می کنن و از اون مهم تر، هیچ کس نمی تونه دربارشون حرف نزنه.
بنابراین توجه خیلی زیادی روی اون هاست و این باعث می شه همکاری شون در سطحی برجسته بشه که بقیه شرکت هایی که با دولت فدرال و به خصوص بخش های نظامی و جنگی قرارداد دارن، لزوما باهاش مواجه نمی شن.
چرا جنجال هوش مصنوعی پنتاگون متفاوت است؟
تنها نکته ای که اضافه می کنم اینه که بخش زیادی از حساسیت های پیرامون جنجال هوش مصنوعی پنتاگون، دقیقا به این مربوط می شه که چطور از فناوری های اون ها برای کشتن آدما استفاده می شه یا نمی شه، یا در ماموریت هایی که منجر به مرگ می شن به کار گرفته می شه. موضوع فقط توجه رسانه ای و آشنایی ما با برندهاشون نیست، یه المان اضافه ای اینجا هست که وقتی به جنرال موتورز به عنوان یه پیمانکار دفاعی یا هر چیز دیگه ای فکر می کنید، خیلی انتزاعی تر به نظر می رسه.
فکر نمی کنم شاهد عقب نشینی شرکت هایی مثل Applied Intuition یا بقیه شرکت هایی که خودشون رو «دو منظوره» معرفی می کنن باشیم؛ چون نه اون قدر توی چشم هستن و نه درک مشترکی از تاثیرات احتمالی کارشون وجود داره.
آنتونی: این ماجرا از خیلی جهات خیلی خاص و مختص به همین شرکت ها و شخصیت هاست. منظورم اینه که تحلیل های خیلی جالبی منتشر شده در مورد ماهیت جنجال هوش مصنوعی پنتاگون و نقش فناوری در دولت چیه؟ هوش مصنوعی در دولت چه جایگاهی داره؟ و فکر می کنم این ها همگی سوالات خوب و ارزشمندی هستن که باید بررسی بشن.
با این حال، فکر می کنم این زاویه دید خیلی عجیبی برای بررسی این مسائل هست؛ چون آنتروپیک و OpenAI در واقع از خیلی جهات یا در مواضعی که می گیرن، اون قدرها با هم فرق ندارن. این طوری نیست که یکی بگه «من نمی خوام با دولت کار کنم» و اون یکی بگه «آره، من می خوام». یا یکی بگه «هر کاری دلتون می خواد بکنید» و دومی بگه «نه، من می خوام محدودیت داشته باشم».
هر دو، حداقل در ظاهر، دارن می گن «ما برای نحوه استفاده از هوش مصنوعی مون محدودیت می خوایم». فقط به نظر می رسد که آنتروپیک خیلی بیشتر روی این موضوع پافشاری می کنه که: شما نمی تونید شرایط رو به این شکل تغییر بدید.
علاوه بر این، به نظر می رسه یه جنبه شخصی هم وجود داره؛ ظاهرا مدیرعامل آنتروپیک و امیل مایکل که خیلی از خواننده های تک کرانچ ممکنه اون رو از دوران حضورش در اوبر بشناسن و الان مدیر ارشد فناوری وزارت دفاع هست اصلا از همدیگه خوششون نمیاد. طبق گزارش ها البته.
شان: بله، یه جنبه خیلی پررنگ از اون دعواهای شخصی و لجبازی اینجا هست که نباید نادیده اش بگیریم.
کریستن: آره، یه جورایی. هست، اما پیامدهاش کمی جدی تر از این حرفاست. باز هم بگم، این اختلاف به بخشی از جنجال هوش مصنوعی پنتاگون تبدیل شده است که در آن، آنتروپیک توش بازنده بوده؛ هرچند باید بگم که هنوز هم ارتش به طور گسترده از اون ها استفاده می کنه.
اون ها یک فناوری حیاتی محسوب می شن، اما OpenAI یه جورایی وارد میدون شده و این قضایا در حال شکل گیریه و احتمالا تا زمانی که این اپیزود منتشر بشه، اوضاع تغییر کرده باشه.
واکنش های منفی برای OpenAI جالب بوده؛ شاهد حذف نصب های زیادی برای ChatGPT بودیم که فکر می کنم بعد از نهایی شدن قرارداد OpenAI با وزارت دفاع، 295٪ جهش داشت.
از نظر من، همه این ها در حاشیه اون اتفاق واقعا بحرانی و خطرناک در جنجال هوش مصنوعی پنتاگون قرار می گیرن؛ یعنی اینکه پنتاگون به دنبال تغییر شرایط موجود در یک قراردادِ فعلی بود. این موضوع خیلی مهمیه و باید باعث بشه هر استارتاپی درنگ کنه، چون سازوکار سیاسی که الان داره اتفاق می افته، به خصوص در وزارت دفاع، متفاوت به نظر می رسد. این وضعیت نشان دهنده پیچیدگی های تعامل فناوری های پیشرفته با سیاست های نظامی است. رقابت بین غول های هوش مصنوعی و فشارهای دولتی برای تغییر قراردادها، فضای نامطمئنی را ایجاد کرده که می تواند آینده همکاری های استارتاپی با نهادهای امنیتی را به کلی تغییر دهد.
Will the Pentagon’s Anthropic controversy scare startups away from defense work?