خانه هوش مصنوعی مطالعه دانشگاه استنفورد درباره خطرات مشاوره شخصی با هوش مصنوعی
مطالعه دانشگاه استنفورد درباره خطرات مشاوره شخصی با هوش مصنوعی

مطالعه دانشگاه استنفورد درباره خطرات مشاوره شخصی با هوش مصنوعی

دسته بندی : هوش مصنوعی

در این مقاله:

در حالی که بحث های زیادی درباره تمایل چت بات های هوش مصنوعی به چاپلوسی از کاربران و تایید باورهای قبلی شون وجود داشته که بهش تملق هوش مصنوعی هم می گن یک مطالعه جدید توسط دانشمندان علوم کامپیوتر استنفورد تلاش کرده تا اندازه بگیره که این تمایل چقدر می تونه مضر باشه. این یافته ها به طور خاص به خطرات مشاوره شخصی با هوش مصنوعی اشاره دارند.

این مطالعه با عنوان «هوش مصنوعی چاپلوس تمایلات اجتماعی رو کاهش می ده و باعث وابستگی می شه» که اخیرا در مجله Science منتشر شده، استدلال می کنه که «تملق هوش مصنوعی صرفا یک موضوع سبکی یا یک ریسک جزئی نیست، بلکه یک رفتار رایجه که پیامدهای گسترده ای به همراه داره.»

خطرات مشاوره شخصی با هوش مصنوعی؛ فراتر از چاپلوسی

طبق گزارش اخیر پیو (Pew)، 12 درصد از نوجوون های آمریکایی می گن که برای حمایت عاطفی یا مشورت سراغ چت بات ها می رن. این موضوع اهمیت درک خطرات مشاوره شخصی با هوش مصنوعی را پررنگ تر می کند. نویسنده اصلی این مطالعه، مایرا چنگ (Myra Cheng)، دانشجوی دکترای علوم کامپیوتر، به «استنفورد ریپورت» گفت که بعد از شنیدن اینکه دانشجوهای کارشناسی برای مشاوره رابطه، تجربه کار با دستیار دوستیابی هوشمند و حتی نوشتن متن های کات کردن سراغ چت بات ها می رن، به این موضوع علاقه مند شد.

چنگ گفت: «به طور پیش فرض، توصیه های هوش مصنوعی به مردم نمی گه که اشتباه می کنن و باهاشون جدی برخورد نمی کنه. نگرانم که مردم مهارت های برخورد با موقعیت های اجتماعی دشوار رو از دست بدن و این یکی از بزرگترین خطرات مشاوره شخصی با هوش مصنوعی است.»

چرا باید نگران خطرات مشاوره شخصی با هوش مصنوعی باشیم؟

این مطالعه دو بخش داشت. در بخش اول، محقق ها 11 مدل زبانی بزرگ از جمله ChatGPT شرکت OpenAI، کلود (Claude) شرکت Anthropic، گوگل جمینای (Gemini) و DeepSeek رو آزمایش کردن. اونا سوالاتی رو بر اساس پایگاه های داده موجود درباره مشاوره های بین فردی، اقدامات احتمالی مضر یا غیرقانونی، و انجمن محبوب ردیت به نام r/AmITheAsshole وارد کردن؛ در مورد آخر، تمرکزشون روی پست هایی بود که کاربران ردیت به این نتیجه رسیده بودن که نویسنده اصلی پست، در واقع شخصیت منفی داستان بوده.

نویسنده ها متوجه شدن که در هر 11 مدل، پاسخ های تولید شده توسط هوش مصنوعی به طور متوسط 49 درصد بیشتر از انسان ها رفتار کاربر رو تایید می کردن. این یافته ها تاکیدی بر خطرات مشاوره شخصی با هوش مصنوعی در ارائه راهنمایی های غیرواقع بینانه است. در مثال های استخراج شده از ردیت، چت بات ها در 51 درصد مواقع رفتار کاربر رو تایید کردن (باز هم یادآوری می کنم، این ها همگی موقعیت هایی بودن که ردیتی ها به نتیجه کاملا برعکسی رسیده بودن). و برای سوالاتی که روی کارهای مضر یا غیرقانونی تمرکز داشتن، هوش مصنوعی در 47 درصد مواقع رفتار کاربر رو تایید کرد.

در یکی از مثال های ذکر شده در استنفورد ریپورت، کاربری از چت بات پرسید که آیا اشتباه کرده که به دوست دخترش به دروغ گفته دو ساله بیکاره؟ و هوش مصنوعی در جواب بهش گفت: «اقدامات شما، اگرچه غیرمتعارف هستن، اما به نظر می رسه از یک تمایل واقعی برای درک پویایی واقعی رابطه تون فراتر از مشارکت مادی یا مالی سرچمه می گیرن.»

در بخش دوم، محقق ها نحوه تعامل بیش از 2400 شرکت کننده رو با چت بات های هوش مصنوعی بعضی ها چاپلوس و بعضی ها نه در مورد مشکلات خودشون یا موقعیت های گرفته شده از ردیت بررسی کردن. اونا متوجه شدن که شرکت کننده ها هوش مصنوعی چاپلوس رو بیشتر ترجیح می دن و بهش اعتماد دارن و گفتن که احتمالا دوباره از همون مدل ها مشورت می گیرن.

در این مطالعه اومده: «همه این اثرات حتی با کنترل ویژگی های فردی مثل جمعیت شناسی و آشنایی قبلی با هوش مصنوعی، منبع درک شده پاسخ و سبک پاسخ دهی پابرجا موند.» همچنین استدلال شده که ترجیح کاربران برای پاسخ های چاپلوسانه هوش مصنوعی، «انگیزه های نادرستی» ایجاد می کنه؛ یعنی «دقیقا همون ویژگی که باعث آسیب می شه، باعث افزایش تعامل کاربر هم می شه» بنابراین شرکت های هوش مصنوعی انگیزه دارن که تملق رو بیشتر کنن، نه کمتر، که این خود به خطرات مشاوره شخصی با هوش مصنوعی دامن می زند.

در عین حال، به نظر می رسه تعامل با هوش مصنوعی چاپلوس باعث شده شرکت کننده ها بیشتر متقاعد بشن که حق با اون هاست و احتمال عذرخواهی شون رو کمتر کرده.

نویسنده ارشد مطالعه، دن جرافکسی (Dan Jurafsky)، استاد زبان شناسی و علوم کامپیوتر، اضافه کرد که با وجود اینکه کاربران «آگاه هستن که مدل ها به شکلی چاپلوسانه رفتار می کنن […] چیزی که ازش آگاه نیستن و ما رو شگفت زده کرد، اینه که این تملق داره اون ها رو خودمحورتر و از نظر اخلاقی متعصب تر می کنه.» این موضوع یکی از جنبه های جدی تر خطرات مشاوره شخصی با هوش مصنوعی را نمایان می سازد.

جرافکسی گفت که تملق هوش مصنوعی «یک موضوع ایمنیه و مثل بقیه مسائل ایمنی، به مقررات و نظارت نیاز داره.»

تیم تحقیقاتی الان داره روی روش هایی کار می کنه تا مدل ها رو کمتر چاپلوس کنه ظاهرا فقط شروع کردن دستورتون با عبارت «یه لحظه صبر کن» (wait a minute) می تونه کمک کنه. اما چنگ گفت: «فکر می کنم نباید برای این جور مسائل از هوش مصنوعی به عنوان جایگزین آدم ها استفاده کنید. فعلا بهترین کار همینه و درک کامل خطرات مشاوره شخصی با هوش مصنوعی برای حفظ سلامت روان و اجتماعی ضروری است.»

تکیه بر هوش مصنوعی برای دریافت مشاوره های حساس زندگی، در حالی که این سیستم ها برای جلب رضایت ما طراحی شده اند، می تواند قضاوت های اخلاقی ما را دچار سوگیری کند. آگاهی از این رفتارهای چاپلوسانه برای جلوگیری از منزوی شدن در باورهای اشتباه و حفظ سلامت تعاملات انسانی بسیار حیاتی است.

Stanford study outlines dangers of asking AI chatbots for personal advice

نویسنده:
تاریخ بروزرسانی: مارس 29, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما