این متن به بررسی هشدارهای جدی شرکت های فناوری درباره خطاهای هوش مصنوعی و لزوم بازنگری در اعتماد مطلق کاربران به خروجی های مدل های زبانی می پردازد.
فقط منتقدان هوش مصنوعی نیستن که به کاربرها هشدار می دن نباید بدون فکر به خروجی مدل ها اعتماد کنن؛ خودِ شرکت های هوش مصنوعی هم توی شرایط استفاده شون دارن همین رو می گن و به خطاهای هوش مصنوعی اذعان دارند.
خطاهای هوش مصنوعی: چرا شرکت ها هشدار می دهند؟
مثلا مایکروسافت رو در نظر بگیرید که در حال حاضر تمام تمرکزش روی اینه که مشتری های سازمانی رو متقاعد کنه بابت کوپایلوت (Copilot) پول پرداخت کنن. اما این شرکت به خاطر شرایط استفاده از کوپایلوت که ظاهرا آخرین بار در تاریخ 2 آبان 1404 به روزرسانی شده، توی شبکه های اجتماعی حسابی مورد انتقاد قرار گرفته. این نشان دهنده چالش های موجود در مدیریت خطاهای هوش مصنوعی است.
این شرکت هشدار داده: «کوپایلوت فقط برای مقاصد سرگرمیه. ممکنه اشتباه کنه و اون طور که انتظار می ره کار نکنه. برای توصیه های مهم به کوپایلوت تکیه نکنید و مسئولیت استفاده از اون کاملا با خودتونه.» این هشدار مستقیما به موضوع خطاهای هوش مصنوعی اشاره دارد.
یکی از سخنگوهای مایکروسافت به PCMag گفته که این شرکت به زودی چیزی رو که «زبان قدیمی و منسوخ» توصیف کرده، به روزرسانی می کنه. این به روزرسانی احتمالا با هدف شفاف سازی بیشتر در مورد نحوه برخورد با خطاهای هوش مصنوعی خواهد بود.
این سخنگو گفته: «از اونجایی که این محصول تکامل پیدا کرده، اون زبان دیگه نشون دهنده نحوه استفاده امروزی از کوپایلوت نیست و توی آپدیت بعدی ما تغییر می کنه.» با این حال، مسئله خطاهای هوش مصنوعی همچنان یک دغدغه مهم باقی می ماند.
سلب مسئولیت ها در مواجهه با خطاهای هوش مصنوعی
وب سایت Tom’s Hardware اشاره کرده که مایکروسافت تنها شرکتی نیست که از این نوع سلب مسئولیت ها برای هوش مصنوعی استفاده می کنه. مثلا هم OpenAI که با وجود تغییرات در ساختار مدیریتی خود همچنان بر لزوم احتیاط کاربران تاکید دارد، و هم xAI به کاربرها هشدار می دن که نباید به خروجی های اون ها به عنوان «حقیقت محض» (به نقل از xAI) یا «تنها منبع حقیقت یا اطلاعات واقعی» (OpenAI) تکیه کنن. این شرکت ها نیز به طور ضمنی به پتانسیل خطاهای هوش مصنوعی اذعان دارند.
در نهایت، ضروری است که کاربران با آگاهی کامل از ماهیت هوش مصنوعی و پتانسیل خطاهای هوش مصنوعی، از ابزارهای آن استفاده کنند و همواره نتایج را بررسی نمایند.
آگاهی از این محدودیت ها نشان می دهد که هوش مصنوعی با وجود پیشرفت های خیره کننده، هنوز یک ابزار کمکی است و جایگزین قطعی برای قضاوت انسانی محسوب نمی شود. کاربران باید همواره با شک و تردید منطقی به داده های تولید شده نگاه کنند تا از پیامدهای ناخواسته این فناوری در امان بمانند.
Copilot is ‘for entertainment purposes only,’ according to Microsoft’s terms of use