کاربران Anthropic با انتخابی جدید روبرو هستند: انصراف یا اشتراکگذاری دادهها برای آموزش هوش مصنوعی.

سلام به شما و همراهان عزیز خبر! 🎙️
خبری داریم درباره حریم خصوصی شما و هوش مصنوعی. 🤫
شرکت آنتروپیک، سازنده هوش مصنوعی محبوب کلود (Claude)، تصمیمات مهمی در مورد نحوه استفاده از اطلاعات کاربرانش گرفته است. از این به بعد، مکالمات شما با این هوش مصنوعی برای آموزش مدلهای آن استفاده میشود، مگر اینکه تا **۲۸ سپتامبر** (یعنی ۷ مهر) مخالفت خود را اعلام کنید. این یک تغییر بزرگ در سیاستهای حفظ حریم خصوصی است و نحوه اطلاعرسانی آن هم مورد انتقاد قرار گرفته. 😬
حالا بریم سراغ جزئیات بیشتر:
شرکت آنتروپیک، سازنده هوش مصنوعی محبوب کلود (Claude)، تصمیمات مهمی در مورد نحوه استفاده از اطلاعات کاربرانش گرفته است. از این به بعد، همه کاربران کلود تا ۲۸ سپتامبر فرصت دارند تا مشخص کنند که آیا موافقند مکالماتشان برای آموزش مدلهای هوش مصنوعی این شرکت استفاده شود یا خیر. 🤖
قبلاً آنتروپیک از چتهای کاربران عادی برای آموزش هوش مصنوعی خود استفاده نمیکرد. اما حالا میخواهد از مکالمات و حتی جلسات کدنویسی کاربران برای بهتر کردن سیستمهایش استفاده کند. همچنین، برای کسانی که مخالفتی نکنند، مدت نگهداری اطلاعات از ۳۰ روز به *پنج سال* افزایش پیدا میکند! 😱
این سیاستهای جدید شامل همه کاربران عادی کلود، یعنی نسخههای رایگان، حرفهای (Pro)، و حداکثری (Max) میشود، حتی کسانی که از کلود برای کدنویسی استفاده میکنند. اما مشتریان تجاری (شرکتها یا سازمانها) که از نسخههای خاص مانند Claude Gov یا Claude for Work استفاده میکنند، از این قاعده مستثنی هستند. 🏢
خب، چرا این اتفاق میافتد؟ آنتروپیک میگوید این تغییرات برای بهبود هوش مصنوعی و امنیت آن است. آنها میگویند با موافقت شما، سیستمهایشان در تشخیص محتوای مضر دقیقتر شده و در مهارتهایی مثل کدنویسی، تحلیل و استدلال، پیشرفت میکنند و در نهایت به نفع همه کاربران خواهد بود. 😇
اما واقعیت شاید کمی متفاوت باشد. مانند دیگر شرکتهای بزرگ هوش مصنوعی، آنتروپیک هم برای رقابت با رقبایی مثل OpenAI و گوگل، به حجم عظیمی از دادههای باکیفیت و مکالمات واقعی کاربران نیاز دارد تا مدلهایش را آموزش دهد و بهبود بخشد. 📈
علاوه بر این، این تغییرات نشاندهنده فشارهای کلی در صنعت هوش مصنوعی در مورد سیاستهای حفظ دادههاست. مثلاً OpenAI هم درگیر یک پرونده حقوقی با نیویورک تایمز است که به خاطر آن ممکن است مجبور شود تمام مکالمات کاربران ChatGPT را برای همیشه نگه دارد، حتی اگر آنها را حذف کرده باشند! ⚖️
چیزی که نگرانکننده است، این است که این تغییرات پیدرپی در سیاستها، چقدر سردرگمی برای کاربران ایجاد میکند و بسیاری از آنها اصلاً از این مسائل بیخبرند. 😟
نحوه اطلاعرسانی این تغییرات هم مورد انتقاد قرار گرفته است. کاربران جدید هنگام ثبتنام میتوانند انتخاب کنند، اما کاربران فعلی یک پنجره پاپآپ (Pop-up) میبینند که یک دکمه بزرگ “تایید” (Accept) دارد و در کنار آن، یک گزینه کوچک و پیشفرض فعال “اجازه آموزش” (Training permissions) قرار گرفته است که ممکن است خیلیها آن را نبینند و ناخواسته موافقت کنند. 📝
کارشناسان حریم خصوصی مدتهاست هشدار دادهاند که پیچیدگیهای هوش مصنوعی، گرفتن رضایت واقعی از کاربران را دشوار میکند. حتی کمیسیون تجارت فدرال آمریکا (FTC) هم قبلاً هشدار داده بود که شرکتهای هوش مصنوعی نباید قوانینشان را مخفیانه یا با حروف ریز تغییر دهند، وگرنه با عواقب قانونی روبرو خواهند شد. 🚫
**نکات کلیدی این خبر:**
* شرکت آنتروپیک، سازنده هوش مصنوعی کلود، سیاستهای حفظ اطلاعات کاربرانش را تغییر داده است.
* مکالمات شما با کلود به صورت پیشفرض برای آموزش هوش مصنوعی استفاده خواهد شد.
* شما تا ۲۸ سپتامبر (۷ مهر) فرصت دارید تا از این کار **ممانعت کنید (Opt-out)**.
* در صورت عدم مخالفت، مدت نگهداری اطلاعات شما از ۳۰ روز به *پنج سال* افزایش مییابد.
* نحوه اطلاعرسانی این تغییرات و مکانیزم انتخاب برای کاربران مورد انتقاد جدی است.
* کارشناسان حریم خصوصی نسبت به دشواری اخذ رضایت واقعی از کاربران در زمینه هوش مصنوعی هشدار میدهند.