Google اولین LLM خود با قابلیت حفظ حریم خصوصی، VaultGemma را منتشر کرد

خبر فوری 🚨 گوگل در حال تغییر بازی حفظ حریم خصوصی در هوش مصنوعی است
گوگل ریسرچ اعلام کرده که با یک روش جدید به اسم حریم خصوصی افتراقی Differential Privacy ، مدلهای هوش مصنوعی میتونند بدون افشای اطلاعات حساس کاربران آموزش ببینند 🔒 این یعنی هوش مصنوعی دیگه اطلاعات شخصی یا کپیرایتدار رو حفظ نمیکنه و تکرار نمیکنه، که این برای حفظ حریم خصوصی شما خیلی مهمه
این روش جدید، با اضافه کردن یک سری نویز کنترلشده یا اختلال به دادههای آموزشی در مرحله یادگیری، جلوی تکرار شدن اطلاعات خصوصی رو میگیره البته این کار کمی قدرت پردازشی بیشتری نیاز داره و تیم گوگل تونسته قوانین تعادل بین حریم خصوصی، دقت و قدرت کامپیوتری رو پیدا کنه ⚖️
نتیجه این تحقیقات، مدل جدیدی به اسم VaultGemma هست 🤖 این مدل آزمایشی از همین تکنیک استفاده میکنه و گوگل میگه با وجود تمرکز بر حریم خصوصی، عملکردی شبیه به مدلهای عادی هماندازه خودش داره VaultGemma الان برای توسعهدهندگان قابل دسترسیه تا بتونن هوش مصنوعیهای خصوصیتری بسازن 🚀
نکات کلیدی این خبر
گوگل با روش حریم خصوصی افتراقی ، جلوی تکرار اطلاعات حساس توسط هوش مصنوعی را میگیرد
این روش با اضافه کردن نویز کنترلشده، امنیت دادهها را تضمین میکند
مدل جدید VaultGemma با تمرکز بر حفظ حریم خصوصی، عملکرد مناسبی دارد
این تکنیک میتواند به ساخت هوش مصنوعیهای خصوصیتر در آینده کمک کند