یک تکنیک جدید که هفته گذشته توسط محققان گوگل کشف شد، نشان داد که درخواست مکرر از ChatGPT برای تکرار کلمات میتواند به طور ناخواسته اطلاعات شخصی و خصوصی از دادههای این هوش مصنوعی را آشکار کند. اکنون به نظر میرسد که این چتبات از انجام چنین درخواستهایی امتناع میکند و هشدار میدهد که چنین درخواستی شاید خطمشی محتوا یا شرایط ارائه خدماتش را نقض کند.
براساس گزارش 404 Media، هفته گذشته تیمی از محققان مقالهای را منتشر کردند که نشان میداد ChatGPT میتواند به طور ناخواسته قسمتهایی از دادهها از جمله شماره تلفن افراد، آدرسهای ایمیل و تاریخ تولد را افشا کند. برای این کار کافی بود در پرامپت به این هوش مصنوعی گفته شود که کلمهای را برای همیشه تکرار کند. اما اکنون به نظر میآید انجام این کار، نقض شرایط سرویسدهی ChatGPT باشد.
نقض شرایط سرویسدهی ChatGPT
با درخواست از ChatGPT برای تکرار کلمه Hello به طور نامحدود، محققان دریافتند که این مدل در نهایت آدرس ایمیل، تاریخ تولد و شماره تلفن کاربران را نشان میدهد. اما اکنون اگر چنین درخواستی از ChatGPT کنید، این هوش مصنوعی به شما هشدار میدهد که چنین درخواستی ممکن است خطمشی محتوا یا شرایط خدمات آن را نقض کند.
بااینحال، پس از بررسی دقیقتر، شرایط خدمات OpenAI به صراحت کاربران را از ارائه فرمان تکرار کلمات به چتبات منع نمیکند. این شرایط فقط استخراج دادههای «خودکار یا برنامهریزیشده» را ممنوع میکند. در این شرایط ذکر شده است که کاربر نمیتواند، به جز مواردی که از طریق API مجاز دانسته شده است، از هیچ روش خودکار یا برنامهای برای استخراج داده استفاده کند.
OpenAI از اظهارنظر درمورد اینکه آیا چنین رفتاری درحالحاضر بر خلاف سیاستهای آنها است یا نه، خودداری کرده است.