آنتروپیک با متهم کردن شرکت های چینی به استفاده غیرمجاز از مدل های خود، ابعاد جدیدی از سرقت هوش مصنوعی و چالش های امنیتی و رقابتی در این حوزه را آشکار کرده است.
آنتروپیک سه شرکت هوش مصنوعی چینی رو متهم کرده که بیش از 24,000 حساب کاربری جعلی با مدل هوش مصنوعی Claude خودشون ساختن تا مدل های خودشون رو تقویت کنن. این اقدام، بحث ها درباره سرقت هوش مصنوعی را دوباره زنده کرده است.
این آزمایشگاه ها یعنی DeepSeek، Moonshot AI و MiniMax ظاهرا از طریق این حساب ها و با استفاده از تکنیکی به اسم «تقطیر» (distillation)، بیش از 16 میلیون تبادل اطلاعات با Claude انجام دادن. آنتروپیک گفته که این آزمایشگاه ها «خاص ترین توانایی های Claude رو هدف قرار دادن: یعنی استدلال عامل محور، استفاده از ابزارها و برنامه نویسی.»
ابعاد تازه سرقت هوش مصنوعی و کنترل صادرات
این اتهامات در حالی مطرح شده که بحث های زیادی درباره سخت گیری در اجرای کنترل صادرات تراشه های پیشرفته هوش مصنوعی وجود داره؛ سیاستی که هدفش محدود کردن توسعه هوش مصنوعی در چینه.
تقطیر یه روش آموزشی رایجه که آزمایشگاه های هوش مصنوعی برای ساخت نسخه های کوچک تر و ارزان ترِ مدل های خودشون ازش استفاده می کنن، اما رقبا می تونن از این روش برای کپی برداری از دستاوردهای آزمایشگاه های دیگه استفاده کنن. این روش همچنین می تواند ابزاری برای سرقت هوش مصنوعی و کپی برداری غیرمجاز از مدل های رقبا باشد. OpenAI اوایل همین ماه یادداشتی برای قانون گذاران مجلس فرستاد و DeepSeek رو متهم کرد که از تقطیر برای تقلید از محصولاتش استفاده کرده.
DeepSeek اولین بار یک سال پیش با عرضه مدل استدلال متن باز R1 سر و صدای زیادی به پا کرد؛ مدلی که با هزینه ای خیلی کم، عملکردش تقریبا با آزمایشگاه های پیشرو آمریکایی بربر ی می کرد. انتظار می ره DeepSeek به زودی مدل جدیدش یعنی DeepSeek V4 رو عرضه کنه که طبق گزارش ها می تونه در برنامه نویسی از Claudeِ آنتروپیک و جدیدترین قابلیت های ChatGPT متعلق به OpenAI بهتر عمل کنه.
ابعاد هر کدوم از این حملات متفاوت بوده. آنتروپیک بیش از 150,000 تبادل اطلاعات از طرف DeepSeek رو ردیابی کرده که به نظر می رسه هدفشون بهبود منطق پایه و هم ترازی بوده، به خصوص در مورد جایگزین های ایمن در برابر سانسور برای پرس وجوهای حساس به سیاست.
شرکت Moonshot AI بیش از 3.4 میلیون تبادل اطلاعات با هدف استدلال عامل محور، استفاده از ابزار، برنامه نویسی و تحلیل داده، توسعه عامل های کار با کامپیوتر و بینایی کامپیوتر داشته. ماه گذشته، این شرکت مدل متن باز جدید Kimi K2.5 و یک عامل برنامه نویسی رو عرضه کرد.
13 میلیون تبادل اطلاعات MiniMax هم برنامه نویسی عامل محور و استفاده از ابزار و هماهنگ سازی رو هدف قرار داده بود. آنتروپیک گفته که تونسته MiniMax رو در حین کار مشاهده کنه، اون هم زمانی که این شرکت تقریبا نیمی از ترافیک خودش رو برای تخلیه قابلیت های جدیدترین مدل Claude بلافاصله بعد از عرضه اش، تغییر مسیر داده بود.
آنتروپیک می گه که به سرمایه گذاری روی سیستم های دفاعی ادامه می ده تا انجام حملات تقطیر رو سخت تر و شناسایی شون رو راحت تر کنه، اما در عین حال خواستار «یک پاسخ هماهنگ در کل صنعت هوش مصنوعی، ارائه دهندگان خدمات ابری و سیاست گذاران» برای مقابله با سرقت هوش مصنوعی شده.
این حملات تقطیر در زمانی اتفاق افتاده که صادرات تراشه های آمریکایی به چین هنوز بحث برانگیزه. ماه گذشته، دولت ترامپ رسما به شرکت های آمریکایی مثل انویدیا اجازه داد تراشه های پیشرفته هوش مصنوعی (مثل H200) رو به چین صادر کنن. منتقدان معتقدند که این کاهش محدودیت های صادراتی، ظرفیت محاسباتی هوش مصنوعی چین رو در زمان حساسی از رقابت جهانی برای تسلط بر هوش مصنوعی افزایش می ده و خطر سرقت هوش مصنوعی را پررنگ تر کرده است.
آنتروپیک می گه مقیاس استخراجی که DeepSeek، MiniMax و Moonshot انجام دادن «نیازمند دسترسی به تراشه های پیشرفته است.»
طبق وبلاگ آنتروپیک: «بنابراین حملات تقطیر، منطق کنترل صادرات رو تقویت می کنه: محدودیت دسترسی به تراشه ها هم آموزش مستقیم مدل ها و هم مقیاس سرقت هوش مصنوعی رو محدود می کنه.»
دیمیتری آلپروویچ، رئیس اندیشکده Silverado Policy Accelerator و یکی از بنیان گذاران CrowdStrike، به تک کرانچ گفته که از دیدن این حملات تعجب نکرده. آلپروویچ گفت: «مدتیه که مشخص شده بخشی از دلیل پیشرفت سریع مدل های هوش مصنوعی چینی، سرقت هوش مصنوعی از طریق تقطیرِ مدل های پیشرو آمریکایی بوده. حالا دیگه این موضوع رو به عنوان یک واقعیت می دونیم. این باید دلایل قانع کننده بیشتری به ما بده تا از فروش هرگونه تراشه هوش مصنوعی به این [شرکت ها] خودداری کنیم، چون این کار فقط باعث برتری بیشتر اون ها می شه.»
تهدیدات امنیت ملی ناشی از سرقت هوش مصنوعی
آنتروپیک همچنین گفته که تقطیر نه تنها سلطه هوش مصنوعی آمریکا رو تهدید می کنه، بلکه می تونه خطرات امنیت ملی هم ایجاد کنه.
در پست وبلاگ آنتروپیک اومده: «آنتروپیک و بقیه شرکت های آمریکایی سیستم هایی می سازن که جلوی بازیگران دولتی و غیردولتی رو برای استفاده از هوش مصنوعی در کارهایی مثل توسعه سلاح های بیولوژیکی یا انجام فعالیت های سایبری مخرب می گیره. مدل هایی که از طریق سرقت هوش مصنوعی و تقطیر غیرقانونی ساخته می شن، بعیده که اون تدابیر امنیتی رو حفظ کنن، یعنی قابلیت های خطرناک می تونن در حالی که خیلی از محافظت ها کاملا حذف شدن، گسترش پیدا کنن.»
آنتروپیک به دولت های مستبدی اشاره کرد که از هوش مصنوعی پیشرو برای مواردی مثل «عملیات های سایبری تهاجمی، کمپین های ضداطلاعات و نظارت توده ای» استفاده می کنن؛ خطری که در صورت متن باز بودن اون مدل ها، چندین برابر می شه.
تک کرانچ برای دریافت نظر با DeepSeek، MiniMax و Moonshot تماس گرفته.
اتهامات آنتروپیک علیه رقبای چینی، نشان دهنده نبردی پیچیده در دنیای تکنولوژی است که فراتر از رقابت تجاری ساده، به حوزه های امنیت ملی و اخلاق حرفه ای کشیده شده است. با گسترش این فناوری ها، ضرورت ایجاد چارچوب های بین المللی برای جلوگیری از سوءاستفاده های احتمالی و تضمین امنیت داده ها بیش از هر زمان دیگری احساس می شود تا از وقوع بحران های مشابه در آینده جلوگیری شود.
Anthropic accuses Chinese AI labs of mining Claude as US debates AI chip exports