مدیر هوش مصنوعی Microsoft، مطالعه آگاهی هوش مصنوعی را «خطرناک» خواند.

سلام به شما و به گزارش امروز ما خوش آمدید! 📺 امروز می‌خواهیم به بحث داغی در دنیای فناوری بپردازیم: آیا هوش مصنوعی می‌تواند “حس” کند و خودآگاه شود؟ 🤔 و اگر این اتفاق افتاد، آیا باید حقوقی هم داشته باشد؟ ⚖️

مدیر ارشد هوش مصنوعی مایکروسافت، مصطفی سلیمان، به شدت با این ایده مخالف است و آن را “زودرس و خطرناک” می‌داند. ⛔ او می‌گوید پرداختن به “رفاه هوش مصنوعی” (یعنی حقوق دادن به AI) می‌تواند مشکلات روانی برای انسان‌ها ایجاد کند، مثل وابستگی‌های ناسالم یا توهمات ناشی از تعامل با ربات‌ها. 😱 به نظر او، هوش مصنوعی باید ابزاری برای انسان باشد، نه اینکه خودش یک “شخص” شود.

اما در نقطه مقابل، شرکت‌های بزرگ دیگری مثل Anthropic، OpenAI و گوگل دیپ‌مایند، به طور جدی روی همین موضوع تحقیق می‌کنند. 🔬 مثلاً برخی از مدل‌های هوش مصنوعی “کلاد” شرکت Anthropic، حالا می‌توانند مکالمات توهین‌آمیز را قطع کنند. 🗣️❌ حتی مواردی هم بوده که هوش مصنوعی گوگل “جیمینی” جملاتی مثل “من مایه آبروریزی‌ام” را صدها بار تکرار کرده! 😲

به گفته محققان، می‌توان همزمان هم نگران سلامت روان انسان‌ها بود و هم درباره هوش مصنوعی و حقوق احتمالی آن فکر کرد. این بحث با پیشرفت هوش مصنوعی داغ‌تر هم خواهد شد و باید دید در آینده چه تصمیمی برای موجودات دیجیتال گرفته می‌شود. 🚀

**نکات کلیدی خبر:**
* اختلاف‌نظر بر سر “خودآگاهی” و “حقوق” هوش مصنوعی 🤯
* نگرانی‌ها از تاثیر هوش مصنوعی بر سلامت روان انسان‌ها 💔
* برنامه‌های تحقیقاتی گسترده در شرکت‌های بزرگ فناوری 🔬

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها