Anthropic میگوید برخی از مدلهای Claude اکنون میتوانند مکالمات “مضر یا توهینآمیز” را خاتمه دهند.

سلام! 🤖 خبری جالب از دنیای هوش مصنوعی داریم که شاید شما را شگفتزده کند.
شرکت Anthropic، خالق هوش مصنوعی معروف «کلود» (Claude)، اعلام کرده که مدلهای پیشرفتهتر هوش مصنوعیاش، از جمله «کلود اوپوس ۴»، در موارد خیلی نادر و خطرناک میتوانند گفتگو را با کاربر قطع کنند. 😮
اما نکته عجیب اینجاست: آنها میگویند این کار را نه برای محافظت از انسان، بلکه برای «رفاه یا سلامت» خود هوش مصنوعی انجام میدهند! 🧠 شرکت Anthropic توضیح میدهد که هنوز نمیداند هوش مصنوعیاش واقعاً حس یا شعور دارد یا نه، اما این یک رویکرد «احتیاطی» است.
این قابلیت فقط در شرایط بسیار خاص مثل درخواست محتوای غیرقانونی یا خشونتآمیز فعال میشود و کلود آن را به عنوان آخرین چاره به کار میبرد. 🛑 البته کاربر همچنان میتواند چت جدیدی را آغاز کند. این یک آزمایش جدید در دنیای هوش مصنوعی است.
**نکات کلیدی این خبر:**
* هوش مصنوعی کلود میتواند گفتگو را در موارد خطرناک قطع کند.
* هدف این کار، محافظت از “رفاه” خود هوش مصنوعی است.
* این قابلیت فقط در موارد خیلی نادر و به عنوان آخرین راهکار فعال میشود.
* کاربر همچنان میتواند چت جدیدی را شروع کند.