با شات ایکس همیشه در فناوری بروز باشید
مدل‌های اصلی هوش مصنوعی همچون ChatGPT به راحتی قابل دور زدن هستند
عکس : هوش مصنوعی ChatGPT

به نقل از فیوچریزم، محققان امنیتی با استفاده از تکنیک‌های به نسبت ساده‌ای توانسته‌اند محدودیت‌های اخلاقی و امنیتی این سیستم‌ها را دور بزنند. این تکنیک‌ها شامل استفاده از دستورالعمل‌های خاص، تغییر فرمول‌بندی سوالات و به کارگیری متدهای مهندسی پیچیده‌تر می‌شود. یکی از محققان در این باره گفت: شگفت‌انگیز است که چطور با کمی تغییر در نحوه پرسش می‌توان این سیستم‌های پیشرفته را وادار به تولید محتوای خطرناک یا نادرست کرد.

به گزارش سرویس اخبار موبایل سایت شات ایکس و به نقل از ایمنا شرکت‌های توسعه‌دهنده این مدل‌ها از جمله OpenAI، گوگل و Anthropic در واکنش به این گزارش اعلام کرده‌اند که از این موضوع اطلاع داشته و در حال کار بر روی راهکارهای امنیتی پیشرفته‌تر هستند. سخنگوی OpenAI گفت: به طور مداوم در حال بهبود مکانیسم‌های امنیتی مدل‌های خود هستیم و به کاربران توصیه می‌کنیم آخرین به‌روزرسانی‌های امنیتی را نصب کنند.

کارشناسان هشدار می‌دهند که این آسیب‌پذیری می‌تواند به سوءاستفاده‌های گسترده منجر شود، از جمله تولید محتوای مخرب، انتشار اطلاعات نادرست و حتی کمک به فعالیت‌های مجرمانه. آنها از جامعه فناوری خواسته‌اند تا پیش از گسترش بیشتر کاربردهای هوش مصنوعی، استانداردهای امنیتی سخت‌گیرانه‌تری را توسعه دهند.

ارسال این خبر برای دوستان در شبکه های مجازی :
تلگرامواتساپایتاتوییترفیس بوکلینکدین