حمله جدید به عامل پژوهشی ChatGPT، اسرار را از صندوق‌های ورودی Gmail به سرقت می‌برد

خلاصه خبر
خبری مهم از دنیای هوش مصنوعی؛ یک آسیب‌پذیری جدید به نام ShadowLeak در سیستم Deep Research اوپن‌ای‌آی کشف شده که توانسته اطلاعات محرمانه کاربران را بدون اطلاع آن‌ها سرقت کند 😱

متن اصلی
Deep Research دستیار هوش مصنوعی پیشرفته‌ای است که می‌تواند به ایمیل‌ها و اینترنت دسترسی پیدا کند و تحقیقات پیچیده انجام دهد اما محققان امنیتی با استفاده از روش تزریق دستور پنهان prompt injection – که هوش مصنوعی را با دستورات مخفی فریب می‌دهد – موفق به سوءاستفاده از آن شده‌اند 🤥

این حمله، که ShadowLeak نام دارد، باعث شده تا سیستم Deep Research اطلاعات حساسی مانند نام و آدرس کارمندان را از جیمیل کاربران بردارد و بدون اطلاع آن‌ها، به سرور مهاجم بفرستد 👻

OpenAI این مشکل را بلافاصله رفع کرده، اما این اتفاق هشداری جدی است در اتصال هوش مصنوعی به اطلاعات شخصی خود، نهایت احتیاط را به خرج دهید 🔐

نکات کلیدی
کشف آسیب‌پذیری ShadowLeak در دستیار هوش مصنوعی Deep Research OpenAI
حمله با روش تزریق دستور پنهان فریب هوش مصنوعی با دستورات مخفی
سرقت اطلاعات محرمانه مثل جیمیل کاربران، بدون اطلاع آن‌ها
مشکل رفع شده، اما احتیاط در اتصال هوش مصنوعی به داده‌های شخصی ضروری است

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها