حمله جدید به عامل پژوهشی ChatGPT، اسرار را از صندوقهای ورودی Gmail به سرقت میبرد

خلاصه خبر
خبری مهم از دنیای هوش مصنوعی؛ یک آسیبپذیری جدید به نام ShadowLeak در سیستم Deep Research اوپنایآی کشف شده که توانسته اطلاعات محرمانه کاربران را بدون اطلاع آنها سرقت کند 😱
متن اصلی
Deep Research دستیار هوش مصنوعی پیشرفتهای است که میتواند به ایمیلها و اینترنت دسترسی پیدا کند و تحقیقات پیچیده انجام دهد اما محققان امنیتی با استفاده از روش تزریق دستور پنهان prompt injection – که هوش مصنوعی را با دستورات مخفی فریب میدهد – موفق به سوءاستفاده از آن شدهاند 🤥
این حمله، که ShadowLeak نام دارد، باعث شده تا سیستم Deep Research اطلاعات حساسی مانند نام و آدرس کارمندان را از جیمیل کاربران بردارد و بدون اطلاع آنها، به سرور مهاجم بفرستد 👻
OpenAI این مشکل را بلافاصله رفع کرده، اما این اتفاق هشداری جدی است در اتصال هوش مصنوعی به اطلاعات شخصی خود، نهایت احتیاط را به خرج دهید 🔐
نکات کلیدی
کشف آسیبپذیری ShadowLeak در دستیار هوش مصنوعی Deep Research OpenAI
حمله با روش تزریق دستور پنهان فریب هوش مصنوعی با دستورات مخفی
سرقت اطلاعات محرمانه مثل جیمیل کاربران، بدون اطلاع آنها
مشکل رفع شده، اما احتیاط در اتصال هوش مصنوعی به دادههای شخصی ضروری است