مایکروسافت هفته گذشته از بینگ جدید با نسخه پیشرفتهتر چتبات ChatGPT رونمایی کرد و حالا عدهای از کاربران به این فناوری دسترسی پیدا کردهاند. در همین فاصله کوتاه، برخی توانستهاند محدودیتهای این مدل هوش مصنوعی را دور بزنند و رازهای «بینگ چت» را که ظاهراً در داخل مایکروسافت با نام «سیدنی» (Sydney) شناخته میشوند، پیدا کنند.
به گزارش آرستکنیکا، «کوین لیو»، دانشجوی دانشگاه استنفورد، میگوید با استفاده از چند جمله توانسته است فرمانهای اولیه بینگ چت را پیدا کند. این فرمانها شامل فهرستی از هنجارها هستند که شیوه رفتار این هوش مصنوعی با کاربران را تعیین میکنند و معمولاً از دید کاربر مخفی میشوند.
اکثر مدلهای زبانی بزرگ دارای مجموعهای از شروط اولیه هستند که عملکرد آنها را تعیین میکنند. ChatGPT هم از این قاعده مستثنی نیست و پیشتر کاربران توانسته بودند با تهدید این هوش مصنوعی به مرگ، محدودیتهای آن را پشت سر بگذارند.