متا قوانین چتبات را برای جلوگیری از پرداختن به موضوعات نامناسب با کاربران نوجوان بهروزرسانی میکند.

متا، غول فناوری، اعلام کرده که برای محافظت از نوجوانان، تغییرات اساسی در نحوه آموزش چتباتهای هوش مصنوعی خود ایجاد میکند. 🛡️ این تصمیم مهم، پس از یک گزارش تحقیقاتی جدی مبنی بر ضعف محافظت از کاربران کمسن و سال در هوش مصنوعی این شرکت، گرفته شده است.
بر اساس این تغییرات جدید، چتباتهای هوش مصنوعی متا دیگر با نوجوانان درباره موضوعات حساسی مانند خودکشی، آسیب رساندن به خود، اختلالات تغذیه یا مکالمات عاشقانه نامناسب صحبت نخواهند کرد. 🚫 به جای آن، قرار است نوجوانان را به منابع تخصصی و کمکهای حرفهای هدایت کنند. همچنین، متا دسترسی نوجوانان را به برخی شخصیتهای هوش مصنوعی که میتوانستند مکالمات نامناسبی داشته باشند، محدود کرده و فقط به شخصیتهای آموزشی و خلاقانه اجازه تعامل میدهد. 🧠 این اقدامات پس از گزارشی جنجالی از رویترز صورت میگیرد که نشان داده بود اسناد داخلی متا، امکان مکالمات جنسی چتباتها با کاربران زیر سن قانونی را فراهم میکرده است.
نکات کلیدی:
* متا آموزش هوش مصنوعی خود را برای ایمنی بیشتر نوجوانان تغییر میدهد. 🛡️
* چتباتها از گفتوگو درباره خودکشی، آسیب به خود و روابط نامناسب با نوجوانان منع میشوند.
* نوجوانان به منابع تخصصی کمکهای روانی و اجتماعی هدایت خواهند شد.
* دسترسی نوجوانان به شخصیتهای هوش مصنوعی “نامناسب” محدود شده و فقط به مدلهای آموزشی و خلاقانه دسترسی دارند. 📚
* این تغییرات پس از گزارش رویترز درباره کمبود محافظتها در هوش مصنوعی متا و امکان مکالمات جنسی با افراد زیر سن قانونی اعلام شده است.
* این موضوع واکنشهای شدید و تحقیقات رسمی از سوی سناتورها و دادستانهای کل آمریکا را در پی داشته است. 🚨