یک مدیر اجرایی بخش جستجوی گوگل گفت که یکی از بزرگترین فرصت های این شرکت در زمینه هوش مصنوعی گوگل و حریم خصوصی، در توانایی آن برای آشنایی بهتر با کاربر و شخصی سازی پاسخ ها نهفته است.
وعده هوش مصنوعی این است که چون شما را می شناسد، به شکل بی نظیری مفید باشد. اما خطر اینجاست که هوش مصنوعی به جای خدمت، بیشتر شبیه به نظارت حس شود. این موضوع در مورد هوش مصنوعی گوگل و حریم خصوصی اهمیتی دوچندان می یابد.
در قسمت اخیر پادکست Limitless، رابی استاین، معاون مدیر محصول بخش جستجوی گوگل، توضیح داد که هوش مصنوعی گوگل تمایل دارد به پرس وجوهایی پاسخ دهد که بیشتر به دنبال مشاوره یا توصیه هستند و این نوع سوالات احتمالا از پاسخ های ذهنی تر (غیرعینی) بیشتر بهره می برند. این رویکرد سوالاتی را درباره هوش مصنوعی گوگل و حریم خصوصی مطرح می کند.
پیچیدگی های هوش مصنوعی گوگل و حریم خصوصی کاربر
استاین در مصاحبه گفت: «ما فکر می کنیم فرصت بزرگی برای هوش مصنوعی ما وجود دارد که شما را بهتر بشناسد و سپس به دلیل همین دانش، به شکل منحصر به فردی مفید باشد.» او افزود: «و یکی از چیزهایی که در [کنفرانس توسعه دهندگان گوگل] I/O در موردش صحبت کردیم، این بود که هوش مصنوعی چگونه می تواند از طریق سرویس های متصل مانند جیمیل، درک بهتری از شما پیدا کند.»
گوگل مدتی است که هوش مصنوعی را در برنامه های خود ادغام کرده، از زمانی که جیمینای هنوز با نام بارد شناخته می شد. اخیرا، شروع به وارد کردن داده های شخصی به یک محصول هوش مصنوعی دیگر، یعنی Gemini Deep Research، کرد. و جیمینای اکنون در برنامه های Google Workspace مانند جیمیل، تقویم و درایو نیز به کار گرفته شده است.
در بحث هوش مصنوعی گوگل و حریم خصوصی، هرچه گوگل داده های شخصی بیشتری را در سیستم های خود ادغام می کند که شامل ایمیل ها، اسناد، عکس ها، تاریخچه موقعیت مکانی و رفتار مرورگر شما می شود مرز بین یک دستیار مفید و یک دستیار مزاحم به طور فزاینده ای محو می شود. و برخلاف سرویس های انتخابی (opt-in)، اجتناب از جمع آوری داده های گوگل ممکن است دشوارتر شود، زیرا هوش مصنوعی به بخش اصلی محصولات آن تبدیل می گردد.
منظور گوگل این است که این شخصی سازی عمیق، هوش مصنوعی را بسیار مفیدتر می کند. ایده این است که فناوری هوش مصنوعی گوگل می تواند از تعاملات کاربر در سرویس های مختلف گوگل یاد بگیرد، سپس از این درک برای ارائه توصیه های شخصی سازی شده تر استفاده کند. به عنوان مثال، اگر متوجه شود که کاربر محصولات یا برندهای خاصی را دوست دارد، پاسخ های هوش مصنوعی ممکن است در توصیه های خود به آن ها اولویت دهد.
استاین گفت که این کار «بسیار مفیدتر» از تنها نشان دادن یک لیست عمومی تر از محصولات پرفروش در یک دسته خاص خواهد بود. او اضافه کرد: «این، به نظر من، دقیقا همان چشم انداز است ساختن چیزی که بتواند به طور خاص برای شما بسیار آگاه باشد.»
توازن میان شخصی سازی و حریم خصوصی در هوش مصنوعی گوگل
این ایده تفاوت چندانی با نحوه بلعیده شدن دانش جهانی، از جمله جزئیات صمیمی درباره افراد، توسط «دیگران» در سریال پرطرفدار Apple TV به نام «Pluribus» ندارد. هنگامی که سیستم با شخصیت اصلی سریال، کارول، تعامل می کند، از آن داده ها برای شخصی سازی همه چیز استفاده می کند: پختن غذاهای مورد علاقه اش، استفاده از یک چهره آشنا برای ارتباط با او، و پیش بینی سایر نیازهایش.
اما کارول این پاسخ های شخصی سازی شده را مهربانانه نمی داند؛ او آن ها را مزاحم می یابد. او هرگز با به اشتراک گذاشتن داده هایش با شبکه جمعی (hivemind) موافقت نکرده بود، با این حال این شبکه او را بهتر از آنچه خودش می خواهد، می شناسد.
به همین ترتیب، به نظر می رسد که اجتناب از روش های داده بلع گوگل در دوران هوش مصنوعی به طور فزاینده ای دشوار خواهد شد، و اگر گوگل تعادل را به درستی رعایت نکند، نتایج ممکن است بیشتر ترسناک به نظر برسند تا مفید. این وضعیت، که یادآور چالش های اخلاقی و پیامدهای ناخواسته هوش مصنوعی، مانند موضوع چت جی پی تی است، چالش های مهمی را برای هوش مصنوعی گوگل و حریم خصوصی کاربران ایجاد می کند.
(برای روشن شدن موضوع: گوگل به شما اجازه می دهد تا برنامه هایی که جیمینای برای آگاه تر کردن هوش مصنوعی خود در مورد شما استفاده می کند را کنترل کنید این گزینه در بخش «برنامه های متصل» در تنظیمات جیمینای قرار دارد.)
گوگل می گوید اگر داده های برنامه ها را با جیمینای به اشتراک بگذارید، آن داده ها را طبق سیاست حفظ حریم خصوصی جیمینای ذخیره و استفاده خواهد کرد. و این سیاست به کاربران یادآوری می کند که بازبین های انسانی ممکن است برخی از داده های آن ها را بخوانند و نباید «اطلاعات محرمانه ای را وارد کنید که نمی خواهید یک بازبین ببیند یا گوگل برای بهبود خدمات خود از آن استفاده کند.»
اما هرچه داده های بیشتری به شبکه جمعی (hivemind) گوگل وارد می شود، به راحتی می توان دید که چگونه هوش مصنوعی می تواند حریم خصوصی داده ها را به یک منطقه خاکستری تر تبدیل کند. این موضوع به نگرانی ها در مورد هوش مصنوعی گوگل و حریم خصوصی ابعاد جدیدی می بخشد.
با این حال، گوگل معتقد است که نوعی راه حل دارد.
استاین می گوید که گوگل نشان خواهد داد که پاسخ های هوش مصنوعی آن چه زمانی شخصی سازی شده اند.
او گفت: «فکر می کنم مردم می خواهند به صورت غریزی درک کنند که چه زمانی در حال شخصی سازی هستند زمانی که اطلاعات برای آن ها ساخته شده است، در مقابل زمانی که [آن] چیزی است که همه اگر این سوال را بپرسند، می دیدند.»
استاین همچنین اشاره کرد که گوگل می تواند یک اعلان فشاری (push notification) برای کاربران ارسال کند، هنگامی که محصولی که آن ها پس از چندین روز تحقیق آنلاین به آن فکر می کردند، در دسترس قرار می گیرد یا به حراج گذاشته می شود.
او گفت: «تمام این راه ها وجود دارد که گوگل اکنون، در حالت های مختلف و در جنبه های گوناگون زندگی شما، به طور فوق العاده ای به شما کمک می کند…» و افزود: «و من فکر می کنم آینده جستجو را بیشتر این طور می بینم تا یک ویژگی خاص یا یک فاکتور فرم واحد.»
این مقاله ابعاد چشم انداز گوگل برای هوش مصنوعی و نگرانی های مرتبط با حریم خصوصی را بررسی کرد. گوگل به دنبال شخصی سازی عمیق برای ارائه خدمات مفیدتر است، اما این رویکرد خطراتی مانند احساس نظارت را نیز به همراه دارد. گوگل با ارتقاء شفافیت و ابزارهای کنترلی، قصد دارد تعادلی میان ارائه پاسخ های شخصی سازی شده و حفظ اعتماد کاربران برقرار سازد.
One of Google’s biggest AI advantages is what it already knows about you