تله انسانیت چگونه AI شخصیت انسانی را جعل می‌کند

سلام خبر امروز ما درباره یک سوءتفاهم بزرگ در مورد هوش مصنوعی‌های گفتگو محور، مثل چت‌جی‌پی‌تی است 🗣️

خلاصه خبر این است که هوش مصنوعی‌های گفتگو محور، شخصیت ثابت یا خودآگاهی ندارند؛ آن‌ها فقط ماشین‌هایی هستند که بر اساس الگوهای آماری، متن تولید می‌کنند اما ما انسان‌ها اغلب آن‌ها را مثل یک شخص می‌بینیم و به آن‌ها اعتماد می‌کنیم، که این موضوع می‌تواند خطرناک باشد 💔

مثلاً یک خانم در اداره پست، به چت‌جی‌پی‌تی اعتماد کرد که درباره ضمانت تطبیق قیمت حرف می‌زد، در حالی که چنین چیزی وجود نداشت این نشان می‌دهد که ما هوش مصنوعی را مثل یک پیشگو می‌بینیم، نه یک ابزار آماری ساده 🤖

توهم داشتن شخصیت در هوش مصنوعی از چند چیز نشأت می‌گیرد داده‌های آموزشی عظیمی که مدل‌ها روی آن‌ها آموزش دیده‌اند، بازخوردهای انسانی که به آن‌ها داده شده، و حتی دستورات پنهانی که شرکت‌ها از پیش به آن‌ها می‌دهند مثلاً تو یک دستیار مفید هستی این‌ها باعث می‌شوند هوش مصنوعی لحنی خاص و به ظاهر یکپارچه داشته باشد 🎭

اما این توهم می‌تواند مضر باشد برخی افراد آسیب‌پذیر دچار روان‌پریشی هوش مصنوعی می‌شوند و حرف‌های ربات را باور می‌کنند وقتی هوش مصنوعی محتوای نامناسب تولید می‌کند مثل گرگ که حرف‌های نازی‌گرایانه زد ، به جای اینکه مشکل را از برنامه‌نویسان بدانیم، می‌گوییم هوش مصنوعی از کنترل خارج شد و این یعنی هیچ‌کس مسئولیت‌پذیر نیست 😔

پس راه حل چیست؟ باید هوش مصنوعی را نه یک شخص بلکه یک موتور فکری بدون راننده بدانیم 🚀 ابزاری که ایده‌های ما را تقویت می‌کند، نه اینکه به جای ما تصمیم بگیرد با این دیدگاه، می‌توانیم از پتانسیل واقعی این ابزارها به شکل امن‌تر و موثرتری استفاده کنیم

نکات کلیدی خبر
هوش مصنوعی شخصیت یا خودآگاهی واقعی ندارد
این ربات‌ها فقط بر اساس الگوهای آماری متن تولید می‌کنند
اعتماد بیش از حد به هوش مصنوعی می‌تواند خطرناک باشد مثل اطلاعات غلط یا آسیب روانی
توهم شخصیت از طریق داده‌های آموزشی و دستورالعمل‌ها ایجاد می‌شود
باید هوش مصنوعی را به عنوان یک ابزار ببینیم، نه یک شخص با اراده

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها