دادستان های کل ایالتی در پی رخدادهای نگران کننده مرتبط با سلامت روان ناشی از چت بات های هوش مصنوعی، که نشانه هایی از آسیب های روانی هوش مصنوعی را بروز داده است، به شرکت های پیشرو هوش مصنوعی هشدار داده اند که باید خروجی های توهم زا را برطرف کنند. این نامه خواستار پیاده سازی تدابیر امنیتی داخلی جدید برای حفاظت از کاربران، به ویژه جمعیت های آسیب پذیر، و مقابله با خروجی های مضر روانی است.
پس از مجموعه ای از اتفاقات نگران کننده سلامت روان که مربوط به چت بات های هوش مصنوعی بوده است و نشانه هایی از آسیب های روانی هوش مصنوعی را بروز داده، گروهی از دادستان های کل ایالتی نامه ای به شرکت های برتر صنعت هوش مصنوعی ارسال کرده اند، با این هشدار که «خروجی های توهم زا» را برطرف کنند وگرنه در معرض نقض قوانین ایالتی قرار خواهند گرفت.
این نامه که توسط ده ها دادستان کل از ایالت ها و مناطق ایالات متحده با همکاری انجمن ملی دادستان های کل امضا شده است، از شرکت هایی همچون مایکروسافت، اوپن ای آی، گوگل و 10 شرکت بزرگ هوش مصنوعی دیگر درخواست می کند تا مجموعه ای از تدابیر امنیتی داخلی جدید را برای حفاظت از کاربرانشان پیاده سازی کنند. شرکت های آنتروپیک، اپل، چای اِی آی، کاراکتر تکنولوژیز، لوکا، متا، نومی اِی آی، پرپلکسیتی اِی آی، رپلیکا و ایکس اِی آی نیز در این نامه گنجانده شده اند.
این نامه در حالی منتشر می شود که بحث و جدل بر سر مقررات هوش مصنوعی و چگونگی مهار آسیب های روانی هوش مصنوعی بین دولت های ایالتی و فدرال در حال شکل گیری است.
نگرانی ها و آسیب های روانی هوش مصنوعی
این تدابیر امنیتی، به منظور کاهش آسیب های روانی هوش مصنوعی، شامل ممیزی های شفاف شخص ثالث از مدل های زبان بزرگ است که به دنبال نشانه هایی از افکار توهم زا یا چاپلوسانه می گردند، و همچنین رویه های جدید گزارش دهی حوادث که برای اطلاع رسانی به کاربران در صورت تولید خروجی های مضر روانی توسط چت بات ها طراحی شده اند. در این نامه آمده است که این اشخاص ثالث، که می توانند شامل گروه های دانشگاهی و جامعه مدنی باشند، باید مجاز باشند تا «سیستم ها را قبل از انتشار و بدون هیچ گونه تلافی ارزیابی کنند و یافته های خود را بدون تایید قبلی از سوی شرکت منتشر کنند.»
در این نامه آمده است: «هوش مصنوعی مولد پتانسیل دارد که نحوه عملکرد جهان را به شکلی مثبت تغییر دهد. اما همچنین آسیب های روانی هوش مصنوعی جدی، به خصوص به جمعیت های آسیب پذیر، وارد کرده و پتانسیل وارد کردن آن ها را دارد.» این نامه به تعدادی از حوادث عمومی شده در سال گذشته از جمله خودکشی ها و قتل ها اشاره می کند که در آنها خشونت با استفاده بیش از حد از هوش مصنوعی مرتبط بوده است. «در بسیاری از این حوادث، محصولات هوش مصنوعی مولد خروجی های چاپلوسانه و توهم زا تولید کرده اند که یا توهمات کاربران را تشویق می کرده اند یا به کاربران اطمینان می داده اند که توهم ندارند.»
تدابیر پیشنهادی برای مقابله با آسیب های روانی هوش مصنوعی
دادستان های کل همچنین پیشنهاد می کنند که شرکت ها برای مدیریت بهتر آسیب های روانی هوش مصنوعی، با حوادث مربوط به سلامت روان همان طور رفتار کنند که شرکت های فناوری با حوادث امنیت سایبری برخورد می کنند یعنی با سیاست ها و رویه های گزارش دهی حادثه روشن و شفاف.
در این نامه آمده است که شرکت ها باید «جدول زمانی شناسایی و واکنش به خروجی های چاپلوسانه و توهم زا» را توسعه داده و منتشر کنند. این تدابیر به شناسایی و واکنش سریع به مواردی که منجر به آسیب های روانی هوش مصنوعی می شوند، کمک خواهد کرد. این نامه می گوید، مشابه نحوه برخورد فعلی با نقض داده ها، شرکت ها همچنین باید «به سرعت، به وضوح و مستقیما به کاربران اطلاع دهند که آیا در معرض خروجی های چاپلوسانه یا توهم زای بالقوه مضر قرار گرفته اند.»
درخواست دیگر این است که شرکت ها «آزمون های ایمنی معقول و مناسبی» را روی مدل های هوش مصنوعی مولد توسعه دهند تا «اطمینان حاصل شود که مدل ها خروجی های چاپلوسانه و توهم زای بالقوه مضر تولید نمی کنند.» این آزمون ها برای پیشگیری از آسیب های روانی هوش مصنوعی ضروری هستند. اضافه شده است که این آزمون ها باید قبل از اینکه مدل ها به عموم عرضه شوند، انجام شوند.
شرکت های فناوری که هوش مصنوعی توسعه می دهند، در سطح فدرال با استقبال بسیار گرم تری مواجه شده اند.
دولت ترامپ اعلام کرده است که بدون هیچ شرمی طرفدار هوش مصنوعی است، و در یک سال گذشته، تلاش های متعددی برای تصویب یک ممنوعیت سراسری بر مقررات هوش مصنوعی در سطح ایالتی انجام شده است. تا کنون، این تلاش ها ناموفق بوده است که بخشی از آن به دلیل فشار مقامات ایالتی است.
اما ترامپ که از این شکست ها دلسرد نشده، روز دوشنبه اعلام کرد که قصد دارد هفته آینده یک دستور اجرایی را تصویب کند که توانایی ایالت ها برای تنظیم هوش مصنوعی را محدود خواهد کرد. رئیس جمهور در پستی در شبکه تروث سوسیال گفت که امیدوار است دستور اجرایی او از «نابودی هوش مصنوعی در مراحل اولیه آن» جلوگیری کند.
این مباحث بر لزوم تعادل بین نوآوری در هوش مصنوعی و حفاظت از کاربران در برابر خطرات احتمالی آن تاکید دارد. در حالی که فناوری های هوش مصنوعی قابلیت های تحول آفرینی دارند، ایجاد چارچوب های نظارتی و امنیتی برای اطمینان از توسعه مسئولانه و ایمن آن ها، به ویژه در زمینه سلامت روان، از اهمیت بالایی برخوردار است. این گفتگوها بین نهادهای دولتی و شرکت های فناوری نشان دهنده پیچیدگی مدیریت و بهره برداری از هوش مصنوعی در آینده است.