خانه هوش مصنوعی جنجال چت جی پی تی و خشونت و تردید OpenAI در گزارش به پلیس
جنجال چت جی پی تی و خشونت و تردید OpenAI در گزارش به پلیس

جنجال چت جی پی تی و خشونت و تردید OpenAI در گزارش به پلیس

دسته بندی : هوش مصنوعی

در این مقاله:

بررسی حادثه تیراندازی جسی ون روتسلار و تحلیل ارتباط میان چت جی پی تی و خشونت نشان دهنده ضرورت بازنگری در سیستم های نظارتی هوش مصنوعی برای جلوگیری از سوءاستفاده های خطرناک است.

بررسی ابعاد چت جی پی تی و خشونت: مورد ون روتسلار

یه جوون 18 ساله که گفته می شه در یه تیراندازی دسته جمعی توی تامبلر ریجِ کانادا، هشت نفر رو کشته، طبق گزارش ها از ChatGPT شرکت OpenAI به روش هایی استفاده کرده که باعث نگرانی کارکنان این شرکت شده. این ماجرا ابعاد تازه ای از رابطه بین چت جی پی تی و خشونت را نمایان می سازد.

چت های جسی ون روتسلار که توشون خشونت با اسلحه رو توصیف کرده بود، توسط ابزارهایی که مدل زبانی بزرگ (LLM) شرکت رو برای سوءاستفاده مانیتور می کنن شناسایی شدن و در خرداد 1404 مسدود شدن. این نمونه ای نگران کننده از ارتباط احتمالی بین چت جی پی تی و خشونت است.

طبق گزارش وال استریت ژورنال، کارکنان شرکت درباره اینکه به پلیس کانادا اطلاع بدن یا نه بحث کردن، اما در نهایت این کار رو انجام ندادن. این تردید نشان می دهد که چارچوب های موجود برای مقابله با مواردی چون چت جی پی تی و خشونت ممکن است کافی نباشند. سخنگوی OpenAI گفت که فعالیت های ون روتسلار معیارهای گزارش به پلیس رو نداشت؛ البته این شرکت بعد از حادثه با مقامات کانادایی تماس گرفت.

مراقبت از کاربران: مقابله با چت جی پی تی و خشونت

متن چت های ChatGPT تنها بخش نگران کننده ردپای دیجیتالی ون روتسلار نبود. او ظاهرا توی روبلاکس (Roblox)، پلتفرم شبیه سازی که بچه ها زیاد ازش استفاده می کنن، یه بازی ساخته بود که تیراندازی دسته جمعی توی یه مرکز خرید رو شبیه سازی می کرد، که خود نشانه ای از گرایش به خشونت است. این ابعاد مختلف، پیچیدگی های مربوط به چت جی پی تی و خشونت را فراتر از صرفا استفاده از هوش مصنوعی نشان می دهد. همچنین توی ردیت هم مطالبی درباره اسلحه پست کرده بود.

ناپایداری روانی ون روتسلار برای پلیس محلی هم مشخص بود؛ پلیس قبلا بعد از اینکه اون تحت تاثیر مواد مخدر نامشخصی خونه شون رو آتیش زده بود، به خونه خانواده ش احضار شده بود. این سابقه ذهنی به درک بهتر چگونگی ارتباط چت جی پی تی و خشونت در موارد این چنینی کمک می کند.

چت بات های LLM ساخته شده توسط OpenAI و رقباش متهم شدن که باعث فروپاشی ذهنی کاربرهایی می شن که موقع صحبت با مدل های دیجیتال، ارتباطشون رو با واقعیت از دست می دن. این اتهامات اهمیت رسیدگی به جنبه های روانشناختی و اخلاقی در زمینه چت جی پی تی و خشونت را دوچندان می کند. همچنین در برخی پرونده های قضایی به نقش چت جی پی تی در خودکشی نوجوانان اشاره شده و چندین شکایت ثبت شده که مدعی هستند مدل های زبانی افراد رو به خودکشی تشویق کردن یا برای انجامش راهکار ارائه دادن.

اگه در وضعیت بحرانی هستید یا به خودکشی فکر می کنید، با شماره 988 تماس بگیرید یا بهش پیام بدید تا با خط امداد خودکشی و بحران 988 ارتباط برقرار کنید.

واقعه تلخ تامبلر ریج و چالش های حقوقی مرتبط با محتوای تولید شده توسط هوش مصنوعی، لزوم مسئولیت پذیری بیشتر شرکت های فناوری را گوشزد می کند. نظارت دقیق تر بر الگوهای رفتاری کاربران و همکاری نزدیک تر با نهادهای امنیتی می تواند از تبدیل شدن تعاملات دیجیتالی به فجایع انسانی جلوگیری کند.

OpenAI debated calling police about suspected Canadian shooter’s chats

نویسنده:
تاریخ بروزرسانی: فوریه 21, 2026
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما