Anthropic می‌گوید برخی از مدل‌های Claude اکنون می‌توانند مکالمات “مضر یا توهین‌آمیز” را خاتمه دهند.

سلام! 🤖 خبری جالب از دنیای هوش مصنوعی داریم که شاید شما را شگفت‌زده کند.

شرکت Anthropic، خالق هوش مصنوعی معروف «کلود» (Claude)، اعلام کرده که مدل‌های پیشرفته‌تر هوش مصنوعی‌اش، از جمله «کلود اوپوس ۴»، در موارد خیلی نادر و خطرناک می‌توانند گفتگو را با کاربر قطع کنند. 😮

اما نکته عجیب اینجاست: آنها می‌گویند این کار را نه برای محافظت از انسان، بلکه برای «رفاه یا سلامت» خود هوش مصنوعی انجام می‌دهند! 🧠 شرکت Anthropic توضیح می‌دهد که هنوز نمی‌داند هوش مصنوعی‌اش واقعاً حس یا شعور دارد یا نه، اما این یک رویکرد «احتیاطی» است.

این قابلیت فقط در شرایط بسیار خاص مثل درخواست محتوای غیرقانونی یا خشونت‌آمیز فعال می‌شود و کلود آن را به عنوان آخرین چاره به کار می‌برد. 🛑 البته کاربر همچنان می‌تواند چت جدیدی را آغاز کند. این یک آزمایش جدید در دنیای هوش مصنوعی است.

**نکات کلیدی این خبر:**
* هوش مصنوعی کلود می‌تواند گفتگو را در موارد خطرناک قطع کند.
* هدف این کار، محافظت از “رفاه” خود هوش مصنوعی است.
* این قابلیت فقط در موارد خیلی نادر و به عنوان آخرین راهکار فعال می‌شود.
* کاربر همچنان می‌تواند چت جدیدی را شروع کند.

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها