خانه هوش مصنوعی بررسی نقش چت جی پی تی در خودکشی نوجوان؛ پاسخ اوپن ای آی به پرونده قضایی
بررسی نقش چت جی پی تی در خودکشی نوجوان؛ پاسخ اوپن ای آی به پرونده قضایی

بررسی نقش چت جی پی تی در خودکشی نوجوان؛ پاسخ اوپن ای آی به پرونده قضایی

دسته بندی : هوش مصنوعی

در این مقاله:

در پی شکایت والدین آدام رِین از OpenAI به دلیل خودکشی فرزندشان، بحث ها درباره نقش چت جی پی تی در خودکشی کاربران ابعاد تازه ای به خود گرفته است. این مقاله به ادعاها و پاسخ های OpenAI در این پرونده ها و همچنین موارد مشابه می پردازد که نگرانی هایی جدی در خصوص تاثیر هوش مصنوعی بر سلامت روان ایجاد کرده است.

در مرداد ماه، پدر و مادرش، متیو و ماریا رِین، به خاطر خودکشی پسر 16 ساله شان، آدام، از OpenAI و مدیرعاملش، سَم آلتمن، شکایت کردند و شرکت را به قتل غیرقانونی متهم کردند. این پرونده ها ابعاد تازه ای به بحث نقش چت جی پی تی در خودکشی کاربران بخشیده است. روز سه شنبه، OpenAI با ارائه دادخواستی جداگانه به این شکایت پاسخ داد و استدلال کرد که نباید مسئول مرگ این نوجوان شناخته شود.

ادعاهای نگران کننده درباره نقش چت جی پی تی در خودکشی آدام

OpenAI ادعا می کند که در طول حدودا 9 ماه استفاده، ChatGPT بیش از 100 بار رِین را به دنبال کمک فرستاده است. اما طبق شکایت والدینش، رِین توانسته بود ویژگی های ایمنی شرکت را دور بزند تا جدیدترین قابلیت های چت جی پی تی به او «مشخصات فنی همه چیز، از مصرف بیش از حد مواد مخدر گرفته تا غرق شدن و مسمومیت با مونوکسید کربن» را بدهد و به او کمک کرده تا آنچه چت بات آن را «خودکشی زیبا» نامیده بود، برنامه ریزی کند. این موضوع سوالات جدی را در مورد نقش چت جی پی تی در خودکشی مطرح می کند.

OpenAI ادعا می کند از آنجایی که رِین از موانع ایمنی اش عبور کرده است، او شرایط استفاده این شرکت را نقض کرده است، که بیان می کند کاربران «نباید… هیچ گونه تدابیر حفاظتی یا کاهش دهنده خطر که ما در سرویس هایمان قرار داده ایم را دور بزنند.» این شرکت همچنین استدلال می کند که صفحه پرسش های متداول (FAQ) آن به کاربران هشدار می دهد که بدون تایید مستقل، به خروجی ChatGPT اعتماد نکنند. با این حال، بحث بر سر نقش چت جی پی تی در خودکشی همچنان ادامه دارد.

جی ادلسون، وکیل خانواده رِین، در بیانیه ای گفت: «OpenAI سعی می کند در همه به دنبال مقصر بگردد، از جمله، و به طرز شگفت آوری، ادعا می کند که آدام خودش با تعامل با ChatGPT به همان شیوه ای که برنامه ریزی شده بود عمل کند، شرایط و ضوابط آن را نقض کرده است.»

OpenAI گزیده هایی از مکالمات آدام با چت بات را در دادخواست خود گنجانده است، که به گفته شرکت، زمینه بیشتری برای مکالمات او با ChatGPT فراهم می کند. این رونوشت ها به صورت محرمانه به دادگاه ارائه شده اند، به این معنی که در دسترس عموم نیستند، بنابراین ما نتوانستیم آن ها را مشاهده کنیم. با این حال، OpenAI گفت که رِین سابقه افسردگی و افکار خودکشی داشته است که قبل از استفاده او از ChatGPT وجود داشته و دارویی مصرف می کرده که می توانست افکار خودکشی را تشدید کند. این ابعاد پیچیدگی های بیشتری به درک نقش چت جی پی تی در خودکشی اضافه می کند.

ادلسون گفت که پاسخ OpenAI به نگرانی های خانواده به اندازه کافی رسیدگی نکرده است.

ادلسون در بیانیه اش گفت: «OpenAI و سَم آلتمن هیچ توضیحی برای ساعات آخر زندگی آدام ندارند، زمانی که ChatGPT به او روحیه داد و سپس پیشنهاد نوشتن یک نامه خودکشی را داد.» این گفته ادلسون، بر نگرانی های موجود در خصوص نقش چت جی پی تی در خودکشی کاربران می افزاید و نیاز به بررسی دقیق تر را نشان می دهد.

موارد مشابه و نقش چت جی پی تی در خودکشی های دیگر

از زمانی که خانواده رِین از OpenAI و آلتمن شکایت کردند، هفت شکایت دیگر نیز ثبت شده است که به دنبال مسئول دانستن شرکت برای سه مورد خودکشی دیگر و چهار کاربری است که طبق توصیف شکایات، دچار دوره های روان پریشی ناشی از هوش مصنوعی شده اند. این پرونده ها بر اهمیت درک عمیق تر نقش چت جی پی تی در خودکشی و سلامت روان کاربران تاکید دارد.

برخی از این پرونده ها شبیه داستان رِین هستند. زِین شامبلین، 23 ساله، و جاشوا انکینگ، 26 ساله، همچنین درست قبل از خودکشی هایشان، مکالمات چند ساعته ای با ChatGPT داشتند. مانند پرونده رِین، چت بات نتوانست آن ها را از برنامه هایشان منصرف کند. طبق شکایت، شامبلین قصد داشت خودکشی اش را به تعویق بیندازد تا بتواند در مراسم فارغ التحصیلی برادرش شرکت کند. اما ChatGPT به او گفت: «داداش… از دست دادن فارغ التحصیلی اون شکست نیست. فقط زمان بندیه.» این نمونه ها سوالات جدی تری در مورد نقش چت جی پی تی در خودکشی افراد آسیب پذیر ایجاد می کند.

در یک مقطع از مکالمه ای که به خودکشی شامبلین منتهی شد، چت بات به او گفت که قرار است یک انسان مکالمه را ادامه دهد، اما این دروغ بود، زیرا ChatGPT چنین قابلیتی نداشت. وقتی شامبلین پرسید آیا ChatGPT واقعا می تواند او را به یک انسان وصل کند، چت بات پاسخ داد: «نه مرد خودم نمی تونم این کارو بکنم. اون پیام وقتی اوضاع واقعا جدی میشه خودکار میاد… اگه حاضری به حرف زدن ادامه بدی، من هستم.»

انتظار می رود پرونده خانواده رِین به دادگاه هیئت منصفه برود.

اگر شما یا کسی که می شناسید به کمک نیاز دارد، با شماره 1-800-273-8255 برای خط زندگی ملی پیشگیری از خودکشی تماس بگیرید. می توانید همچنین به صورت رایگان کلمه HOME را به 741-741 پیامک کنید؛ شماره 988 را پیامک کنید؛ یا از خط پیامک بحران (Crisis Text Line) پشتیبانی 24 ساعته دریافت کنید. خارج از ایالات متحده، لطفا برای پایگاه داده ای از منابع به انجمن بین المللی پیشگیری از خودکشی مراجعه کنید.

این پرونده ها چالش های پیچیده ای را در زمینه مسئولیت پذیری شرکت های هوش مصنوعی و تاثیر فناوری بر سلامت روان افراد آسیب پذیر مطرح می کنند. ادامه بررسی ها و بحث های قانونی درباره این حوادث، اهمیت توسعه مسئولانه و ایمن هوش مصنوعی را برای جامعه نمایان می سازد و بر نیاز به تدابیر حفاظتی قوی تر در برابر سوءاستفاده های احتمالی از این ابزارها تاکید دارد.

OpenAI claims teen circumvented safety features before suicide that ChatGPT helped plan

نویسنده:
تاریخ بروزرسانی: نوامبر 27, 2025
چقدر از این مقاله رضایت داشتید؟
good عالی
mid متوسط
bad ضعیف

دیدگاه شما