هکرها با استفاده از تلگرام و ایجاد سرویسی جدید تلاش دارند تا محدودیت های ChatGPT را ازبین ببرند.
به گزارش سرویس اخبار فناوری و تکنولوژی تکنا و به نقل از Ars Technica، محققان سایبری بیانیه ای را منتشر کردند که در آن از ایجاد یک روش توسط هکرها برای دور زدن محدودیت های در چت بات ChatGPT خبر می دهد. آنها در این روش از سرویس هایی که ایجاد بدافزار و فیشینگ را امکان پذیر می کند، استفاده می کنند. هوش مصنوعی ChatGPT می تواند به سوالات پاسخ دهد و در این کار سعی می کند تا خروجی ای شبیه به خروجی انسان داشته باشد.
در این بین مسائلی در زمینه ورود هوش مصنوعی و استفاده از آن در بسیاری از مشاغل بسیار داغ شده است. موضوع مهم دیگر نگرانی درباره سوء استفاده از هوش مصنوعی است. البته هوشمصنوعی همانند تیغ دو لبه علاوه بر فواید آن می تواند بسیار مضر باشد.
به گفته محققان امنیتی API های توسعه یافته توسط OpenAI می توانند در برنامه های دیگر مورد استفاده قرار گرفته و توانایی آن در کنترل درخواست های منفی بسیار اندک است. بنا براین به راحتی می تواند مورد سواستفاده هکرها قرار بگیرد. حتی بدون ایجاد محدودیت های مانند رابط ChatGPT امکان ساخت ایمیل فیشینگ و کد بدافزار به راحتی ایجاد می شود.
اخیرا هکرها در یکی از انجمن های خود سرویسی را برای فروش گذاشته اند که API های آن با برنامه تلگرام ترکیب شده و پس از پاسخ به بیست سوال اول، در ازای پاسخ به هر صد سوال، ۵.۵ دلار دریافت می کند.