خانه امنیت و شبکه نقض امنیتی هوش مصنوعی در پروژه LiteLLM و حواشی گواهینامه های شرکت Delve
نقض امنیتی هوش مصنوعی در پروژه LiteLLM و حواشی گواهینامه های شرکت Delve

نقض امنیتی هوش مصنوعی در پروژه LiteLLM و حواشی گواهینامه های شرکت Delve

در این مقاله:

این مطلب به بررسی بدافزار کشف شده در پروژه LiteLLM می پردازد که باعث یک نقض امنیتی هوش مصنوعی گسترده شده و اعتبار گواهینامه های امنیتی در دنیای استارتاپ ها را با چالش جدی روبرو کرده است.

این یکی از اون اتفاق های واقعی دنیای سیلیکون ولیه که انگار از توی سریال طنز HBO دراومده. همین هفته، یه بدافزار واقعا افتضاح توی یه پروژه ی متن باز کشف شد که می تونه منجر به یک نقض امنیتی هوش مصنوعی بشه. این بدافزار توسط LiteLLM، یکی از فارغ التحصیل های Y Combinator، توسعه داده شده.

LiteLLM به برنامه نویس ها اجازه می ده خیلی راحت به صدها مدل هوش مصنوعی دسترسی داشته باشن و قابلیت هایی مثل مدیریت هزینه ها رو هم فراهم می کنه. این پروژه یه موفقیت بزرگ بوده و طبق گفته ی Snyk (یکی از محقق های امنیتی که این ماجرا رو زیر نظر داره)، روزانه تا 3.4 میلیون بار دانلود می شده. این پروژه 40 هزار ستاره در گیت هاب و هزاران فورک (کسایی که ازش به عنوان پایه برای تغییر و شخصی سازی استفاده کردن) داشت. این آسیب پذیری می تواند منجر به یک نقض امنیتی هوش مصنوعی جدی شود.

کشف بدافزار و جلوگیری از نقض امنیتی هوش مصنوعی

این بدافزار توسط کالوم مک ماهون، دانشمند محقق در شرکت FutureSearch (شرکتی که ایجنت های هوش مصنوعی برای تحقیق در وب ارائه می ده)، کشف، مستندسازی و فاش شد. بدافزار از طریق یه «وابستگی» (Dependency) نفوذ کرده بود؛ یعنی نرم افزار متن باز دیگه ای که LiteLLM بهش تکیه داشت. این نشان دهنده یک مورد حیاتی از نقض امنیتی هوش مصنوعی در زنجیره تامین نرم افزار است. بعد هم اطلاعات ورود به سیستم هر چیزی که باهاش در تماس بود رو دزدید. با اون اطلاعات، بدافزار به بسته های متن باز و حساب های کاربری بیشتری دسترسی پیدا کرد تا اطلاعات بیشتری جمع آوری کنه و همین طور الی آخر.

بدافزار باعث شد دستگاه مک ماهون بعد از دانلود LiteLLM خاموش بشه. همین اتفاق باعث شد اون تحقیق کنه و کشفش کنه. طنز ماجرا اینجاست که یه باگ توی خود بدافزار باعث شد سیستمش به هم بریزه. اگر این باگ نبود، شاید ابعاد نقض امنیتی هوش مصنوعی گسترده تر می شد. چون این کد مخرب خیلی سرسری طراحی شده بود، اون (و همین طور آندره کارپاتی، محقق مشهور هوش مصنوعی) به این نتیجه رسیدن که این کد احتمالا با متد Vibe Coding (کدنویسی حسی و بی دقت) نوشته شده.

توسعه دهنده های LiteLLM این هفته بی وقفه کار کردن تا وضعیت رو اصلاح کنن و خبر خوب اینه که نسبتا زود، احتمالا در عرض چند ساعت، شناسایی شد.

جنجال Delve و چالش های نقض امنیتی هوش مصنوعی

یه بخش دیگه از این ماجرا هست که کاربرهای ایکس (توئیتر سابق) دست از صحبت درباره اش برنمی دارن. LiteLLM تا تاریخ 5 فروردین 1405 که ما چک کردیم، هنوز با افتخار توی وب سایتش نشون می داد که دو تا از گواهینامه های مهم انطباق امنیتی، یعنی SOC2 و ISO 27001 رو دریافت کرده.

اما برای گرفتن این گواهینامه ها از یه استارتاپ به اسم Delve استفاده کرده بود.

شرکت Delve یه استارتاپ حوزه انطباق (Compliance) مبتنی بر هوش مصنوعی از مجموعه Y-Combinator هست که متهم شده با تولید داده های جعلی و استفاده از حسابرس هایی که فقط گزارش ها رو مهر و امضا می کنن، مشتری هاش رو درباره وضعیت واقعی انطباق شون فریب داده. Delve این اتهامات رو رد کرده.

در ادامه تصویری از وب سایت این پروژه را مشاهده می کنید که نشان دهنده ادعاهای امنیتی آن ها در بحبوحه این بحران است.

وب سایت LiteLLM گواهینامه های امنیتی صادر شده توسط Delve رو نشون می ده و پیامدهای نقض امنیتی هوش مصنوعی را برجسته می کند.

این تصویر به خوبی پارادوکس بین گواهینامه های رسمی و واقعیت های فنی در مواجهه با حملات پیچیده را به نمایش می گذارد.

وب سایت LiteLLM گواهینامه های امنیتی صادر شده توسط Delve رو نشون می ده

اینجا یه نکته ظریف هست که باید درک کرد. هدف از این گواهینامه ها اینه که نشون بدن یه شرکت سیاست های امنیتی قوی برای کاهش احتمال وقوع حوادثی مثل این داره. گواهینامه ها به طور خودکار جلوی آلوده شدن شرکتی مثل LiteLLM به بدافزار رو نمی گیرن. با اینکه SOC 2 قراره سیاست های مربوط به وابستگی های نرم افزاری رو پوشش بده، بدافزار باز هم ممکنه نفوذ کنه و منجر به نقض امنیتی هوش مصنوعی شود.

با این حال، همون طور که مهندس گرگلی اوروس توی ایکس اشاره کرد وقتی دید بقیه دارن مسخره اش می کنن: «اوه لعنت، فکر کردم این یه شوخی بود… اما نه، LiteLLM واقعا توسط Delve ایمن شده بود.»

در مورد LiteLLM، مدیرعامل شرکت، کریش دولاکیا، نظری درباره استفاده از Delve نداد. اون هنوز مشغول پاک سازی این وضعیت آشفته ایه که به خاطر قربانی حمله شدن پیش اومده. این حادثه، ابعاد واقعی یک نقض امنیتی هوش مصنوعی را به وضوح نشان می دهد.

اون به تک کرانچ گفت: «اولویت فعلی ما تحقیق فعال در کنار شرکت Mandiant هست. ما متعهد هستیم که به محض اتمام بررسی های جرم شناسی (Forensic)، درس های فنی که یاد گرفتیم رو با جامعه توسعه دهنده ها به اشتراک بذاریم. حتی پیش از این نیز اقداماتی مانند خرید استارتاپ Promptfoo توسط OpenAI برای تقویت امنیت هوش مصنوعی نشان دهنده اهمیت روزافزون این حوزه است تا از تکرار چنین نقض امنیتی هوش مصنوعی در آینده جلوگیری کنیم.»

ماجرای LiteLLM یادآور این نکته است که در دنیای پرشتاب فناوری، امنیت نباید فدای سرعت توسعه شود. استفاده از ابزارهای هوشمند برای تامین امنیت و بررسی دقیق زنجیره تامین نرم افزار، تنها راه مقابله با تهدیداتی است که روز به روز پیچیده تر می شوند و می توانند زیرساخت های حیاتی هوش مصنوعی را هدف قرار دهند.

Delve did the security compliance on LiteLLM, an AI project hit by malware

نویسنده:
تاریخ بروزرسانی: مارس 26, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما