بشریت احتمالا هنوز با ساختن هوش مصنوعی همهجانبه (AGI) یا یک هوش مصنوعی که با عملکرد شناختی انسان مطابقت دارد فاصله زیادی دارد – البته اگر واقعاً قادر به انجام چنین کاری باشد.
اما فارغ از اینکه چنین آیندهای رخ دهد یا نه، سام آلتمن، مدیرعامل شرکت OpenAI، هشدار ی دارد: هوش مصنوعی لازم نیست در سطح AGI هوشمند باشد تا کنترل ذهن انسانی ضعیف ما را در دست بگیرد.
به گزارش ایتنا و به نقل از فیوچریسم، آلتمن در توییتی نوشت: «من پیشبینی میکنم که هوش مصنوعی قبل از اینکه به سطح هوش عمومی همهجانبه (عمومی) فوقبشری برسد، به قابلیت اقناع فوقبشری برسد، که ممکن است به نتایج بسیار عجیبی منجر شود».
با این که آلتمن در مورد اینکه این نتایج چه میتواند باشد توضیح بیشتری نداد، اما این یک پیشبینی دور از ذهن نیست. رباتهای چت هوش مصنوعی همچون ChatGPT محصول شرکت OpenAI به شکلی طراحی شدهاند که در مواجهه با کاربران مکالمهگران خوبی باشند و به طرز تکاندهندهای قادر به قانعکنندگی به نظر برسند - حتی اگر در مورد چیزی پاسخشان کاملاً نادرست باشند.
در عین حال، این نیز درست است که انسانها در حال حاضر شروع به ایجاد ارتباطات عاطفی با چترباتهای مختلف کردهاند، که باعث میشود آنها بسیار قانع کنندهتر به نظر برسند.
در واقع، رباتهای هوش مصنوعی پیش از این نقشی تقویتکننده در برخی رویدادهای بسیار نگرانکننده داشتهاند. مثلا یک فرد 19 ساله چنان شیفته دیدگاه این شریک هوش مصنوعی خود شد که وی را قانع کرد که برای ترور ملکه الیزابت فقید تلاش کند.
افراد سرخورده و ناراضی دهههاست که در جستجوی یافتن یک جامعه همدل با خود به تاریکترین گوشههای اینترنت هجوم آوردهاند، و تصور کردن سناریویی که در آن یک نقشآفرین بد بتواند چنین افراد آسیبپذیری را از طریق یک ربات چت هوش مصنوعی هدف قرار دهد و آنها را متقاعد کند کارهای بد انجام بدهند کار سختی نیست. علاوه بر آن باید به این نکته اشاره کرد که کاربران عادی اینترنت تا چه حد در معرض کلاهبرداریهای دیجیتال و اطلاعات نادرست هستند. حال اگر هوش مصنوعی در این عرصه نیز استفاده شود، نقشآفرینان بد به ابزاری فوقالعاده قانعکننده دست مییابند که با آن میتوانند تودهها را فریب دهند.