محققان سوئیسی در مطالعهای علمی به این نتیجه رسیدند که مدلهای بزرگ زبانی برای پاسخ دادن به انگلیسی فکر میکنند، حتی اگر از آنها سؤالاتی به زبانهای دیگر پرسیده شود.
به گزارش سرویس اخبار هوش مصنوعی سایت شات ایکس و به نقل از آنا هوش مصنوعی به ابزاری مهم در صنایع مختلف از جمله چتباتها تبدیل شده است. این رباتهای گفتوگو از مدلهای بزرگ زبانی پشتیبانی میکنند که میتوانند «فکر کنند» و به سؤالات کاربر پاسخ دهند.
با این حال، مطالعه اخیر مؤسسه فناوری فدرال سوئیس در لوزان نشان داد که مدلهای بزرگ زبانی ممکن است با سوگیری نسبت به فرهنگ زبان انگلیسی فکر کنند و پاسخ دهند، حتی اگر سؤالاتی به زبانهای دیگر پرسیده شود.
این مطالعه سه نسخه از مدل لاما ۲ (Llama ۲) را مورد تجزیه و تحلیل قرار داد که توسط متا، شرکت صاحب فیس بوک ساخته شده است. محققان میخواستند بفهمند که چگونه مدلهای بزرگ زبانیها پرسوجوها را به زبانهای چینی، فرانسوی، آلمانی و روسی پردازش میکنند. آنها فرآیندها را با نگاه کردن به هر یک از لایههای مدل ردیابی کردند. این لایهها از مراحل پردازشیای تشکیل شدهاند که اعلانهای متنی را به نشانهها یا کلمات ترجمه میکنند و پاسخهای متنی آماده میکنند.
یافتهها نشان داد که مدلهای بزرگ زبانی تقریباً همیشه از «زیرفضای انگلیسی» عبور میکنند و حاکی از آن است که این مدلها بدون توجه به زبان پرس و جو از انگلیسی برای کمک به درک مفاهیم استفاده میکنند. دلیلش این است که آموزش دادهها به مدلهای بزرگ زبانی همراه با سوگیری است و مفاهیم رایجتر در فرهنگهای زبان انگلیسی را رمزگذاری میکنند.
مدلهای بزرگ زبانی از زمان انتشار چت جیپیتی در نوامبر ۲۰۲۲ محبوب شدهاند، اما تسلط انگلیسی در این مدلها نگرانیهایی را در مورد تنوع و ارتباطات فرهنگی ایجاد میکند.
کارشناسان هشدار میدهند که استفاده از زبان انگلیسی در این مدلها به عنوان واسطهای برای آموزش، خطر تحمیل یک جهانبینی محدود بر سایر مناطق متمایز زبانی و فرهنگی را دارد و در نتیجه میتواند به پاسخهای نادرست و سوگیری فرهنگی منجر شود و بنابراین میتواند بر صنایع مختلف از جمله ترجمه زبان تأثیر بگذارد.