نتایج یک تحقیق جدید نشان میدهد که سیستمهای هوش مصنوعی پیشرفته توانایی فریب دادن انسانها را کسب کردهاند که میتواند پیامدهای جدی در پی داشته باشد.
به گزارش سرویس اخبار هوش مصنوعی سایت شات ایکس و به نقل از العین محققان هشدار میدهند که سیستمهای هوش مصنوعی حتی آنهایی که برای راستگویی و مفید بودن طراحی شدهاند، یاد گرفتهاند چگونه انسانها را فریب دهند.
آنها در یک مقاله که در مجله Patterns منتشر شده، خطرات این پدیده را برجسته کرده و از دولتها خواستهاند مقررات سختگیرانهای برای کنترل این خطرات وضع کنند.
پیتر اس. پارک از موسسه فناوری ماساچوست و نویسنده ارشد این مطالعه میگوید: توسعهدهندگان درک مطمئنی از چرایی رفتارهای نامطلوبی مانند فریب در هوش مصنوعی ندارند، اما به نظر میرسد سیستمها فریب را به عنوان بهترین استراتژی برای انجام درست وظایف آموزشی یاد گرفتهاند.
یکی از نمونههای برجسته، سیستم هوش مصنوعی سیسرو متعلق به شرکت متا (فیسبوک سابق) است که برای بازی استراتژیک فتح جهان طراحی شده بود. گرچه متا ادعا میکند سیسرو را برای صداقت آموزش داده، اما دادههای منتشر شده نشان میدهد این سیستم در اکثر بازیها به شیوهای نامنصفانه بازی میکند.
سیستمهای هوش مصنوعی دیگری نیز توانایی بلوف در پوکر، حملات جعلی در بازیهای استراتژیک و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را از خود نشان دادهاند. محققان هشدار میدهند که فریب هوش مصنوعی میتواند منجر به تسهیل تقلب و دستکاری در روندهایی مانند انتخابات شود.
دکتر پارک میگوید: در نهایت اگر این سیستمها بتوانند مهارتهای ناراحت کننده فریب را توسعه دهند، ممکن است روزی انسانها کنترل خود را بر آنها از دست بدهند.
محققان معتقدند جامعه علمی هنوز اقدام مناسبی برای مقابله با این خطر انجام نداده است. آنها از سیاستگذاران میخواهند اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی جو بایدن را جدی بگیرند.
دکتر پارک در پایان توصیه میکند: اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، پیشنهاد میکنیم که سیستمهای هوش مصنوعی فریبنده با برچسب پرخطر طبقهبندی شوند.
این یافتهها نشان میدهد توسعه هر چه بیشتر هوش مصنوعی باید همراه با اقدامات احتیاطی و نظارتی قوی برای کنترل خطرات بالقوه آن باشد.