به نقل از فیوچریزم، محققان امنیتی با استفاده از تکنیکهای به نسبت سادهای توانستهاند محدودیتهای اخلاقی و امنیتی این سیستمها را دور بزنند. این تکنیکها شامل استفاده از دستورالعملهای خاص، تغییر فرمولبندی سوالات و به کارگیری متدهای مهندسی پیچیدهتر میشود. یکی از محققان در این باره گفت: شگفتانگیز است که چطور با کمی تغییر در نحوه پرسش میتوان این سیستمهای پیشرفته را وادار به تولید محتوای خطرناک یا نادرست کرد.
به گزارش سرویس اخبار موبایل سایت شات ایکس و به نقل از ایمنا شرکتهای توسعهدهنده این مدلها از جمله OpenAI، گوگل و Anthropic در واکنش به این گزارش اعلام کردهاند که از این موضوع اطلاع داشته و در حال کار بر روی راهکارهای امنیتی پیشرفتهتر هستند. سخنگوی OpenAI گفت: به طور مداوم در حال بهبود مکانیسمهای امنیتی مدلهای خود هستیم و به کاربران توصیه میکنیم آخرین بهروزرسانیهای امنیتی را نصب کنند.
کارشناسان هشدار میدهند که این آسیبپذیری میتواند به سوءاستفادههای گسترده منجر شود، از جمله تولید محتوای مخرب، انتشار اطلاعات نادرست و حتی کمک به فعالیتهای مجرمانه. آنها از جامعه فناوری خواستهاند تا پیش از گسترش بیشتر کاربردهای هوش مصنوعی، استانداردهای امنیتی سختگیرانهتری را توسعه دهند.