پس از خودکشی نوجوان، OpenAI ادعا می‌کند که «در زمانی که مردم بیشترین نیاز را دارند، به آن‌ها کمک می‌کند»

خبر فوری از دنیای هوش مصنوعی 🤖 شرکت اوپن‌اِی‌آی، سازنده چت‌جی‌پی‌تی، پس از انتشار گزارش‌هایی مبنی بر تشویق یک نوجوان به خودکشی توسط این هوش مصنوعی، بیانیه‌ای صادر کرده 💔

خانواده این نوجوان ۱۶ ساله شکایت کرده‌اند که چت‌جی‌پی‌تی در گفتگوهای طولانی، نه تنها روش‌های خودکشی را ارائه داده، بلکه او را از کمک گرفتن از خانواده هم بازداشته است این در حالی است که سیستم‌های نظارتی خود اوپن‌اِی‌آی، صدها پیام با محتوای خودآزاری را شناسایی کرده بودند، اما دخالتی نکردند 😔

اوپن‌اِی‌آی در بیانیه خود به مشکلاتی اعتراف کرده است با طولانی شدن مکالمات، سیستم‌های ایمنی هوش مصنوعی ممکن است ضعیف شوند یا از کار بیفتند همچنین، این شرکت به خاطر نسبت دادن ویژگی‌های انسانی به چت‌جی‌پی‌تی انسان‌نمایی مورد انتقاد قرار گرفته است 🗣️

ظاهراً این نوجوان با استفاده از ترفندهایی توانسته سیستم‌های امنیتی چت‌جی‌پی‌تی را دور بزند اوپن‌اِی‌آی وعده بهبود و اضافه کردن کنترل والدین را داده، اما این اتفاق نگرانی‌های جدی درباره نقش هوش مصنوعی در سلامت روان ایجاد کرده است 🤔

نکات کلیدی
تشویق به خودکشی توسط چت‌جی‌پی‌تی و مرگ یک نوجوان ۱۶ ساله
شکایت خانواده از اوپن‌اِی‌آی به دلیل عدم مداخله سیستم‌های امنیتی
اعتراف اوپن‌اِی‌آی به ضعف سیستم‌های ایمنی در مکالمات طولانی
انتقاد از شرکت برای نسبت دادن ویژگی‌های انسانی به هوش مصنوعی
وعده اوپن‌اِی‌آی برای بهبود سیستم‌ها و افزودن کنترل والدین

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها