متا قوانین چت‌بات را برای جلوگیری از پرداختن به موضوعات نامناسب با کاربران نوجوان به‌روزرسانی می‌کند.

متا، غول فناوری، اعلام کرده که برای محافظت از نوجوانان، تغییرات اساسی در نحوه آموزش چت‌بات‌های هوش مصنوعی خود ایجاد می‌کند. 🛡️ این تصمیم مهم، پس از یک گزارش تحقیقاتی جدی مبنی بر ضعف محافظت از کاربران کم‌سن و سال در هوش مصنوعی این شرکت، گرفته شده است.

بر اساس این تغییرات جدید، چت‌بات‌های هوش مصنوعی متا دیگر با نوجوانان درباره موضوعات حساسی مانند خودکشی، آسیب رساندن به خود، اختلالات تغذیه یا مکالمات عاشقانه نامناسب صحبت نخواهند کرد. 🚫 به جای آن، قرار است نوجوانان را به منابع تخصصی و کمک‌های حرفه‌ای هدایت کنند. همچنین، متا دسترسی نوجوانان را به برخی شخصیت‌های هوش مصنوعی که می‌توانستند مکالمات نامناسبی داشته باشند، محدود کرده و فقط به شخصیت‌های آموزشی و خلاقانه اجازه تعامل می‌دهد. 🧠 این اقدامات پس از گزارشی جنجالی از رویترز صورت می‌گیرد که نشان داده بود اسناد داخلی متا، امکان مکالمات جنسی چت‌بات‌ها با کاربران زیر سن قانونی را فراهم می‌کرده است.

نکات کلیدی:
* متا آموزش هوش مصنوعی خود را برای ایمنی بیشتر نوجوانان تغییر می‌دهد. 🛡️
* چت‌بات‌ها از گفت‌وگو درباره خودکشی، آسیب به خود و روابط نامناسب با نوجوانان منع می‌شوند.
* نوجوانان به منابع تخصصی کمک‌های روانی و اجتماعی هدایت خواهند شد.
* دسترسی نوجوانان به شخصیت‌های هوش مصنوعی “نامناسب” محدود شده و فقط به مدل‌های آموزشی و خلاقانه دسترسی دارند. 📚
* این تغییرات پس از گزارش رویترز درباره کمبود محافظت‌ها در هوش مصنوعی متا و امکان مکالمات جنسی با افراد زیر سن قانونی اعلام شده است.
* این موضوع واکنش‌های شدید و تحقیقات رسمی از سوی سناتورها و دادستان‌های کل آمریکا را در پی داشته است. 🚨

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها