کاربران Anthropic با انتخابی جدید روبرو هستند: انصراف یا اشتراک‌گذاری داده‌ها برای آموزش هوش مصنوعی.

سلام به شما و همراهان عزیز خبر! 🎙️

خبری داریم درباره حریم خصوصی شما و هوش مصنوعی. 🤫

شرکت آنتروپیک، سازنده هوش مصنوعی محبوب کلود (Claude)، تصمیمات مهمی در مورد نحوه استفاده از اطلاعات کاربرانش گرفته است. از این به بعد، مکالمات شما با این هوش مصنوعی برای آموزش مدل‌های آن استفاده می‌شود، مگر اینکه تا **۲۸ سپتامبر** (یعنی ۷ مهر) مخالفت خود را اعلام کنید. این یک تغییر بزرگ در سیاست‌های حفظ حریم خصوصی است و نحوه اطلاع‌رسانی آن هم مورد انتقاد قرار گرفته. 😬

حالا بریم سراغ جزئیات بیشتر:

شرکت آنتروپیک، سازنده هوش مصنوعی محبوب کلود (Claude)، تصمیمات مهمی در مورد نحوه استفاده از اطلاعات کاربرانش گرفته است. از این به بعد، همه کاربران کلود تا ۲۸ سپتامبر فرصت دارند تا مشخص کنند که آیا موافقند مکالماتشان برای آموزش مدل‌های هوش مصنوعی این شرکت استفاده شود یا خیر. 🤖

قبلاً آنتروپیک از چت‌های کاربران عادی برای آموزش هوش مصنوعی خود استفاده نمی‌کرد. اما حالا می‌خواهد از مکالمات و حتی جلسات کدنویسی کاربران برای بهتر کردن سیستم‌هایش استفاده کند. همچنین، برای کسانی که مخالفتی نکنند، مدت نگهداری اطلاعات از ۳۰ روز به *پنج سال* افزایش پیدا می‌کند! 😱

این سیاست‌های جدید شامل همه کاربران عادی کلود، یعنی نسخه‌های رایگان، حرفه‌ای (Pro)، و حداکثری (Max) می‌شود، حتی کسانی که از کلود برای کدنویسی استفاده می‌کنند. اما مشتریان تجاری (شرکت‌ها یا سازمان‌ها) که از نسخه‌های خاص مانند Claude Gov یا Claude for Work استفاده می‌کنند، از این قاعده مستثنی هستند. 🏢

خب، چرا این اتفاق می‌افتد؟ آنتروپیک می‌گوید این تغییرات برای بهبود هوش مصنوعی و امنیت آن است. آنها می‌گویند با موافقت شما، سیستم‌هایشان در تشخیص محتوای مضر دقیق‌تر شده و در مهارت‌هایی مثل کدنویسی، تحلیل و استدلال، پیشرفت می‌کنند و در نهایت به نفع همه کاربران خواهد بود. 😇

اما واقعیت شاید کمی متفاوت باشد. مانند دیگر شرکت‌های بزرگ هوش مصنوعی، آنتروپیک هم برای رقابت با رقبایی مثل OpenAI و گوگل، به حجم عظیمی از داده‌های باکیفیت و مکالمات واقعی کاربران نیاز دارد تا مدل‌هایش را آموزش دهد و بهبود بخشد. 📈

علاوه بر این، این تغییرات نشان‌دهنده فشارهای کلی در صنعت هوش مصنوعی در مورد سیاست‌های حفظ داده‌هاست. مثلاً OpenAI هم درگیر یک پرونده حقوقی با نیویورک تایمز است که به خاطر آن ممکن است مجبور شود تمام مکالمات کاربران ChatGPT را برای همیشه نگه دارد، حتی اگر آنها را حذف کرده باشند! ⚖️

چیزی که نگران‌کننده است، این است که این تغییرات پی‌درپی در سیاست‌ها، چقدر سردرگمی برای کاربران ایجاد می‌کند و بسیاری از آن‌ها اصلاً از این مسائل بی‌خبرند. 😟

نحوه اطلاع‌رسانی این تغییرات هم مورد انتقاد قرار گرفته است. کاربران جدید هنگام ثبت‌نام می‌توانند انتخاب کنند، اما کاربران فعلی یک پنجره پاپ‌آپ (Pop-up) می‌بینند که یک دکمه بزرگ “تایید” (Accept) دارد و در کنار آن، یک گزینه کوچک و پیش‌فرض فعال “اجازه آموزش” (Training permissions) قرار گرفته است که ممکن است خیلی‌ها آن را نبینند و ناخواسته موافقت کنند. 📝

کارشناسان حریم خصوصی مدت‌هاست هشدار داده‌اند که پیچیدگی‌های هوش مصنوعی، گرفتن رضایت واقعی از کاربران را دشوار می‌کند. حتی کمیسیون تجارت فدرال آمریکا (FTC) هم قبلاً هشدار داده بود که شرکت‌های هوش مصنوعی نباید قوانینشان را مخفیانه یا با حروف ریز تغییر دهند، وگرنه با عواقب قانونی روبرو خواهند شد. 🚫

**نکات کلیدی این خبر:**

* شرکت آنتروپیک، سازنده هوش مصنوعی کلود، سیاست‌های حفظ اطلاعات کاربرانش را تغییر داده است.
* مکالمات شما با کلود به صورت پیش‌فرض برای آموزش هوش مصنوعی استفاده خواهد شد.
* شما تا ۲۸ سپتامبر (۷ مهر) فرصت دارید تا از این کار **ممانعت کنید (Opt-out)**.
* در صورت عدم مخالفت، مدت نگهداری اطلاعات شما از ۳۰ روز به *پنج سال* افزایش می‌یابد.
* نحوه اطلاع‌رسانی این تغییرات و مکانیزم انتخاب برای کاربران مورد انتقاد جدی است.
* کارشناسان حریم خصوصی نسبت به دشواری اخذ رضایت واقعی از کاربران در زمینه هوش مصنوعی هشدار می‌دهند.

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها