خانه استارتاپ و سرمایه‌گذاری استعفای مدیر رباتیک OpenAI در پی جنجال قرارداد OpenAI پنتاگون
استعفای مدیر رباتیک OpenAI در پی جنجال قرارداد OpenAI پنتاگون

استعفای مدیر رباتیک OpenAI در پی جنجال قرارداد OpenAI پنتاگون

در این مقاله:

استعفای مدیر ارشد OpenAI به دلیل جنجال قرارداد OpenAI پنتاگون، واکنش های منفی کاربران و چالش های اخلاقی همکاری های نظامی در حوزه هوش مصنوعی را برجسته کرده است.

کاتلین کالینوفسکی، مدیر اجرایی بخش سخت افزار، امروز اعلام کرد که در واکنش به جنجال قرارداد OpenAI پنتاگون، از سمت خودش به عنوان رهبر تیم رباتیک این شرکت استعفا داده.

واکنش ها به جنجال قرارداد OpenAI پنتاگون

کالینوفسکی در پستی در شبکه های اجتماعی گفت: «این تصمیم راحتی نبود. هوش مصنوعی نقش مهمی در امنیت ملی داره، اما نظارت بر آمریکایی ها بدون نظارت قضایی و خودمختاری مرگبار بدون اجازه انسان، خط قرمزهایی هستن که نیاز به تامل خیلی بیشتری نسبت به چیزی که انجام شد، داشتن. این دقیقا همان نقطه اختلاف در جنجال قرارداد OpenAI پنتاگون است.»

کالینوفسکی که قبلا رهبری تیم ساخت عینک های واقعیت افزوده رو در متا بر عهده داشت، در آبان 1403 به OpenAI پیوست. اون در بیانیه امروز خودش تاکید کرد که این تصمیم «در مورد اصول اخلاقیه، نه افراد» و گفت که «احترام عمیقی» برای سم آلتمن، مدیرعامل، و تیم OpenAI قائله.

کالینوفسکی در پست دیگه ای در X اضافه کرد: «برای اینکه شفاف بگم، مشکل من اینه که این خبر بدون مشخص کردن چارچوب های حفاظتی و با عجله اعلام شد. این موضوع قبل از هر چیز یک نگرانی مدیریتیه. این مسائل مهم تر از اون هستن که برای قراردادها یا اعلامیه هاشون، به ویژه در مورد جنجال قرارداد OpenAI پنتاگون، عجله بشه.»

یکی از سخنگوهای OpenAI خروج کالینوفسکی رو در گفتگو با تک کرانچ تایید کرد.

ابعاد جنجال قرارداد OpenAI پنتاگون و پیامدها

این شرکت در بیانیه ای گفت: «ما معتقدیم این توافق، یعنی جنجال قرارداد OpenAI پنتاگون، مسیر عملی برای استفاده مسئولانه از هوش مصنوعی در امنیت ملی ایجاد می کنه و در عین حال خط قرمزهای ما رو هم به وضوح مشخص می کنه: عدم نظارت داخلی و عدم تولید سلاح های خودمختار. ما می دونیم که مردم نظرات متفاوتی در مورد این مسائل دارن و به گفتگو با کارمندان، دولت، جامعه مدنی و جوامع در سراسر جهان ادامه می دیم.»

زمینه ساز این اتفاق، جنجال قرارداد OpenAI پنتاگون بود که کمی بیش از یک هفته پیش اعلام شد، یعنی بعد از اینکه مذاکرات بین پنتاگون و شرکت آنتروپیک به نتیجه نرسید؛ چون این شرکت هوش مصنوعی سعی داشت برای ایجاد پادمان هایی مذاکره کنه که جلوی استفاده از تکنولوژی اش رو در نظارت جمعی داخلی یا سلاح های کاملا خودمختار بگیره. در ادامه، پنتاگون آنتروپیک رو به عنوان یک «ریسک برای زنجیره تامین» معرفی کرد. (آنتروپیک اعلام کرده که در دادگاه علیه این تصمیم شکایت می کنه؛ در همین حال، مایکروسافت، گوگل و آمازون گفتن که همچنان کلودِ آنتروپیک رو در اختیار مشتریان غیردفاعی قرار می دن.)

بعد از اون، OpenAI سریعا توافق خودش رو اعلام کرد که اجازه می ده از تکنولوژی اش در محیط های طبقه بندی شده استفاده بشه. در حالی که مدیران سعی داشتن این قرارداد رو در شبکه های اجتماعی توضیح بدن، شرکت اون رو به عنوان یک «رویکرد گسترده تر و چندلایه» توصیف کرد که نه تنها به متن جنجال قرارداد OpenAI پنتاگون، بلکه به پادمان های فنی هم متکیه تا از خط قرمزهایی مشابه خط قرمزهای آنتروپیک محافظت کنه.

با این حال، به نظر می رسه این جنجال، موسوم به جنجال قرارداد OpenAI پنتاگون، به اعتبار OpenAI نزد برخی از مصرف کنندگان آسیب زده؛ به طوری که حذف نصب ChatGPT حدود 295 درصد افزایش پیدا کرده و کلود به صدر جدول اپ استور رسیده. تا عصر شنبه، کلود و ChatGPT به ترتیب به عنوان اپلیکیشن های رایگان شماره یک و دو در اپ استور آمریکا باقی موندن.

تقابل میان پیشرفت های سریع تکنولوژیک و ملاحظات امنیت ملی، چالش های جدیدی را پیش روی غول های هوش مصنوعی قرار داده است. استعفای مهره های کلیدی و واکنش شدید کاربران نشان می دهد که شفافیت در قراردادهای دفاعی، فراتر از یک موضوع مدیریتی، به یک ضرورت برای حفظ اعتماد عمومی تبدیل شده است.

OpenAI robotics lead Caitlin Kalinowski quits in response to Pentagon deal

نویسنده:
تاریخ بروزرسانی: مارس 8, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما