پروژه Confer با بهره گیری از پروتکل های امنیتی مشابه سیگنال، راهکاری برای محافظت از حریم خصوصی هوش مصنوعی ارائه می دهد تا کاربران بتوانند بدون نگرانی از ردیابی داده ها یا تبلیغات هدفمند، از دستیارهای هوشمند استفاده کنند.
اگه نگران حریم خصوصی تون هستین، ظهور دستیارهای شخصی هوش مصنوعی ممکنه براتون نگران کننده باشه. در واقع، دغدغه های مربوط به حریم خصوصی هوش مصنوعی روزبه روز جدی تر می شوند. استفاده از این دستیارها بدون به اشتراک گذاشتن اطلاعات شخصی سخته، چون این اطلاعات توسط شرکت سازنده مدل نگه داشته می شه. با توجه به اینکه OpenAI همین حالا هم داره تبلیغات رو تست می کنه، اصلا بعید نیست که همون مدل جمع آوری داده که فیس بوک و گوگل رو تغذیه می کنه، به چت های شما با بات ها هم راه پیدا کنه.
Confer؛ راهکاری برای حریم خصوصی هوش مصنوعی
یه پروژه جدید که در آذرماه توسط هم بنیان گذار سیگنال، ماکسی مارلین اسپایک، راه اندازی شده، نشون می ده که یه سرویس هوش مصنوعی حساس به حریم خصوصی چطوری می تونه باشه. این پروژه به طور خاص به چالش های حریم خصوصی هوش مصنوعی می پردازد. Confer طوری طراحی شده که ظاهر و حسی شبیه به تحولات و پیشرفت های ChatGPT یا Claude داشته باشه، اما بخش فنی (بک اند) اون طوری تنظیم شده که از جمع آوری داده ها جلوگیری کنه، اونم با همون دقت و سخت گیری متن بازی که باعث شده سیگنال این قدر مورد اعتماد باشه.
مکالمات شما در Confer نمی تونه برای آموزش مدل یا هدف گیری تبلیغاتی استفاده بشه، به این دلیل ساده که میزبان هیچ وقت به اون ها دسترسی نداره. این رویکرد تضمین می کند که حریم خصوصی هوش مصنوعی کاربران به طور کامل حفظ شود.
برای مارلین اسپایک، این محافظت ها واکنشی به ماهیت صمیمی این سرویسه. او بر اهمیت حفظ حریم خصوصی هوش مصنوعی در تعاملات روزمره تاکید می کند.
مارلین اسپایک می گه: «این یه نوع تکنولوژیه که آدم رو به اعتراف کردن دعوت می کنه. رابط های چتی مثل ChatGPT بیشتر از هر تکنولوژی دیگه ای در تاریخ درباره آدما می دونن. وقتی این رو با تبلیغات ترکیب می کنید، مثل این می مونه که یکی به تراپیست شما پول بده تا شما رو متقاعد کنه چیزی بخرید.» این همان چیزی است که Confer قصد دارد با ارائه یک راهکار مطمئن برای حریم خصوصی هوش مصنوعی از آن جلوگیری کند.
مکانیسم های تضمین حریم خصوصی در هوش مصنوعی
تضمین این سطح از حریم خصوصی مستلزم همکاری چندین سیستم مختلف با هم هستش. این پیچیدگی برای حفظ حریم خصوصی هوش مصنوعی ضروری است.
اول اینکه، Confer پیام های ارسالی و دریافتی رو با استفاده از سیستم کلید عبور (passkey) WebAuthn رمزگذاری می کنه. (متاسفانه این استاندارد روی دستگاه های موبایل یا مک هایی که سیستم عامل Sequoia دارن بهتر کار می کنه، هرچند می تونید اون رو روی ویندوز یا لینوکس هم با یه برنامه ی مدیریت رمز عبور راه بندازید.) در سمت سرور، تمام پردازش های استنتاجی Confer در یک محیط اجرای قابل اعتماد (TEE) انجام می شه و سیستم های تاییدیه از راه دور هم وجود دارن تا تایید کنن سیستم هک یا دستکاری نشده.
داخل اون هم، مجموعه ای از مدل های پایه با وزن های باز (open-weight) وجود دارن که به هر درخواستی که می رسه رسیدگی می کنن. این ساختار پیچیده، سنگ بنای حفظ حریم خصوصی هوش مصنوعی در Confer است.
نتیجه خیلی پیچیده تر از یه ساختار استنتاجی استاندارده (که خودش هم به اندازه کافی پیچیده هست)، اما به قول اصلی Confer به کاربرهاش عمل می کنه. تا زمانی که این محافظت ها برقرار باشن، می تونید گفتگوهای حساس تون رو با مدل انجام بدید بدون اینکه نگران نشت اطلاعات باشید.
سطح رایگان Confer محدود به 20 پیام در روز و 5 چت فعاله. کاربرهایی که حاضرن ماهی 35 دلار پرداخت کنن، دسترسی نامحدود به همراه مدل های پیشرفته تر و شخصی سازی دریافت می کنن. این قیمت خیلی بیشتر از پلن پلاس ChatGPT هستش اما خب، حریم خصوصی ارزون به دست نمیاد.
تلاش برای ایجاد توازن میان قدرت پردازشی و امنیت اطلاعات شخصی، آینده تکنولوژی را رقم می زند. پروژه هایی که امنیت را در اولویت قرار می دهند، نشان دهنده مسیری هستند که در آن کاربران کنترل داده های خود را دوباره به دست می گیرند.
Moxie Marlinspike has a privacy-conscious alternative to ChatGPT