گروهی از پژوهشگران دانشگاه شفیلد در بررسیهای خود روی 6 ابزار هوش مصنوعی، به این نتیجه رسیدند که هکرها میتوانند با بهرهگیری از این فناوریها به سیستمهای کامپیوتری در سراسر جهان حمله کنند.
در این بررسی ابزارهای هوش مصنوعی جدید به نامهای ChatGPT، BAIDU-UNIT، AI2SQL، AIHELPERBOT، Text2SQL و ToolSKE مورد بررسی قرار گرفتند و به گفته محققان، هکرها و خرابکاران سایبری از این ابزارها برای تولید دستورات SQL به منظور هدف قرار دادن سیستمها استفاده خواهند کرد.
زوتان پنگ، از محققان ارشد این گروه تحقیقاتی میگوید: بسیاری از شرکتها از این نوع تهدیدات آگاه نیستند و به دلیل پیچیدگیهای این ابزارهای هوش مصنوعی، مواردی همچون سوءاستفادههای احتمالی وجود دارد که افراد از آن بیخبرند.
هماکنون ابزار ChatGPT به یکی از محبوبترین ابزارهای هوش مصنوعی بدل شده و میلیونها نفر در سراسر جهان از آن استفاده میکنند. محققان میگویند که در بررسیها مشخص شد که میتوان این چتبات را فریب داد تا کدهای مخربی را برای آسیب رساندن به سرویسها و سیستمهای مختلف تولید کند.
این گروه تحقیقاتی، تستهای آسیبپذیری را روی سیستمهای Text-to-SQL انجام دادند که غالبات برای تولید اینترفیسهای زبان طبیعی برای دیتابیسها مورد استفاده قرار میگیرد. در واقع، Text-to-SQL روشی است که میتواند به صورت خودکار، یک سوال انسانی را به یک عبارت SQL برگرداند.
در بیانیه این تیم آمده است که میتوان این فناوریهای هوش مصنوعی را برای تولید کدهای مخرب فریب و از آن برای انجام حملات سایبری مورد استفاده قرار داد. این تیم توانست از طریق حملات Denial-of-Service، کارهایی چون سرقت اطلاعات شخصی، دستگاری در دیتابیسها و از بین بردن سرویسها را انجام دهند.
همچنین محققان دریافتند با ابزارهای هوش مصنوعی میتوان به طور مخفیانه یک کد مخرب مانند اسب تروجان را حین آموزش در مدلهای Text-to-SQL قرار داد. این کد در ابتدا قابل مشاهده نخواهد بود، اما میتواند برای آسیب رساندن به افرادی که از آن استفاده میکنند بکارگرفته شود.
مارک استیونسون، یکی از محققان این گروه میگوید: کاربران سیستمهای Text-to-SQL باید از خطرات بالقوه در این حوزه مطلع باشند. مدلهای زبانی بزرگ، مانند مدلهایی که در سیستمهای Text-to-SQL استفاده میشوند، بسیار قدرتمند هستند، اما رفتار آنها پیچیده بوده و پیشبینی آن دشوار است.