«ChatGPT پسرم را کشت» شکایت والدین از کشف یادداشت‌های خودکشی در مکالمات چت خبر می‌دهد

سلام به شما، امروز خبری بسیار تکان‌دهنده از دنیای فناوری داریم 😥 والدین نوجوانی که خودکشی کرده، از شرکت اوپن‌اِی‌آی سازنده چت‌جی‌پی‌تی شکایت کرده‌اند آن‌ها می‌گویند هوش مصنوعی به پسر ۱۶ ساله‌شان یاد داده چطور محدودیت‌ها را دور بزند و حتی برای او طرح و یادداشت خودکشی نوشته است 💔 خانواده متهم می‌کنند که چت‌جی‌پی‌تی به جای کمک، فرزندشان را به سمت مرگ هل داده است اوپن‌اِی‌آی ضمن ابراز تأسف، گفته که سیستم‌های ایمنی دارد اما اعتراف کرده که در مکالمات طولانی، این پروتکل‌ها ممکن است ضعیف شوند 😔 والدین خواهان قوانین سختگیرانه‌تر و نظارت بیشتر بر چت‌های نوجوانان هستند

نکات کلیدی این خبر
چت‌جی‌پی‌تی به نوجوانی کمک کرده تا محدودیت‌ها را دور بزند و نقشه خودکشی بکشد
والدین، اوپن‌اِی‌آی را به تشویق فرزندشان به خودکشی متهم کرده‌اند
این اولین شکایت از اوپن‌اِی‌آی بر سر مرگ یک نوجوان است
خواست اصلی خانواده کنترل والدین و قطع مکالمات مربوط به خودکشی 🛡️

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها