بعد از تحقیقات گاردین که مشخص کرد بخش AI Overviews گوگل در جواب به بعضی سوال های پزشکی اطلاعات اشتباهی می داد، به نظر می رسه این شرکت نمایش ادغام هوش مصنوعی در جستجوی گوگل رو برای بعضی از اون سوال ها غیرفعال کرده. این موضوع بار دیگر نگرانی ها درباره گوگل و خطای پزشکی هوش مصنوعی را پررنگ کرده است.
نگرانی های فزاینده درباره گوگل و خطای پزشکی هوش مصنوعی
مثلا گاردین اول گزارش داده بود که وقتی کاربرها می پرسیدن «رنج نرمال آزمایش خون کبد چقدره»، اعدادی بهشون نشون داده می شد که فاکتورهایی مثل ملیت، جنسیت، نژاد یا سن رو در نظر نمی گرفت؛ این موضوع می تونست باعث بشه فرد فکر کنه آزمایشش مشکلی نداره، در حالی که واقعا این طور نبود. چنین مواردی اهمیت بحث گوگل و خطای پزشکی هوش مصنوعی را برجسته می کند.
حالا گاردین می گه که AI Overviews از نتایج جستجوی «رنج نرمال آزمایش خون کبد» و «رنج نرمال تست های عملکرد کبد» حذف شده. با این حال، هنوز مدل های دیگه این جستجوها، مثل «محدوده مرجع lft» یا «محدوده مرجع تست lft»، ممکنه باعث بشن که خلاصه ساخته شده توسط هوش مصنوعی رو ببینید. این مسئله نشان می دهد که بررسی دقیق تر ارتباط میان گوگل و خطای پزشکی هوش مصنوعی ضروری است.
وقتی من امروز صبح چند ساعت بعد از اینکه گاردین گزارشش رو منتشر کرد این ها رو امتحان کردم، هیچ کدومشون AI Overviews رو نشون ندادن، هرچند گوگل هنوز این گزینه رو می داد که همون سوال رو در حالت هوش مصنوعی بپرسیم. توی چند مورد هم اولین نتیجه جستجو، همون مقاله گاردین درباره حذف این قابلیت بود. این تغییرات احتمالا در راستای کاهش نگرانی ها پیرامون گوگل و خطای پزشکی هوش مصنوعی اعمال شده اند.
واکنش گوگل به مسئله گوگل و خطای پزشکی هوش مصنوعی
سخنگوی گوگل به گاردین گفته که این شرکت درباره «حذف موارد خاص از نتایج جستجو» نظر نمی ده، اما دارن روی «بهبودهای کلی» کار می کنن. این سخنگو همچنین گفته که یه تیم داخلی از پزشکان، سوالاتی که گاردین دست گذاشته بود روشون رو بررسی کردن و دیدن که «در خیلی از موارد، اطلاعات اشتباه نبوده و سایت های معتبر هم همون رو تایید کرده بودن». این رویکرد نشان دهنده جدیت گوگل در مواجهه با چالش های گوگل و خطای پزشکی هوش مصنوعی است.
تک کرانچ برای گرفتن توضیحات بیشتر با گوگل تماس گرفته. سال گذشته، این شرکت قابلیت های جدیدی رو معرفی کرد که هدفش بهبود جستجوی گوگل برای موارد پزشکی بود؛ چیزهایی مثل بررسی های دقیق تر و مدل های هوش مصنوعی مخصوص سلامتی. با این حال، رویداد اخیر گاردین بار دیگر نیاز به دقت بیشتر در زمینه گوگل و خطای پزشکی هوش مصنوعی را یادآوری می کند.
ونسا هبدیچ، مدیر ارتباطات و سیاست گذاری در British Liver Trust، به گاردین گفته که این حذف «خبر خیلی خوبیه»، اما اضافه کرده: «نگرانی بزرگتر ما اینه که این کار فقط ایراد گرفتن از یه نتیجه جستجوی خاصه و گوگل می تونه راحت AI Overviews رو برای اون مورد ببنده، اما این کار مشکل اصلیِ استفاده از هوش مصنوعی برای سلامت رو حل نمی کنه.» حل این مشکل اساسی، نیازمند رویکردی جامع تر در مقابله با پتانسیل گوگل و خطای پزشکی هوش مصنوعی است.
در مجموع، مدیریت محتوای حساس پزشکی توسط سیستم های خودکار نیازمند نظارت مستمر و به روزرسانی های دقیق است تا امنیت کاربران در فضای دیجیتال حفظ شود. اگرچه محدود کردن قابلیت های هوش مصنوعی در موارد بحرانی یک راهکار موقت است، اما نیاز به مدل های آموزش دیده و قابل اعتماد در حوزه سلامت همچنان یکی از بزرگترین چالش های پیش روی غول های فناوری محسوب می شود.