با شات ایکس همیشه در فناوری بروز باشید
مایکروسافت از مدل‌های هوش مصنوعی Phi-3.5 رونمایی کرد
عکس : هوش مصنوعی Phi-3.5

مایکروسافت اگرچه همکاری نزدیکی با OpenAI دارد، فقط به کار با این شرکت اکتفا نمی‌کند. غول دنیای فناوری به‌تازگی از 3 مدل جدید Phi-3.5 رونمایی کرده که باتوجه‌به نتایج بنچمارک‌ها می‌توان آن‌ها را رقیبی برای مدل‌های گوگل و OpenAI دانست.

به گزارش سرویس اخبار هوش مصنوعی سایت شات ایکس و به نقل از دیجیاتو براساس گزارش VentureBeat، مایکروسافت به‌تازگی 3 مدل جدید سری Phi-3.5 را معرفی کرده است. هر 3 مدل برای دانلود از پلتفرم Hugging Face تحت مجوز MIT در دسترس هستند که امکان استفاده تجاری و تغییر بدون محدودیت را فراهم می‌کند. این 3 مدل به شرح زیر هستند:


مدل‌های هوش مصنوعی Phi-3.5 مایکروسافت

مدل‌های هوش مصنوعی Phi-3.5 مایکروسافت
عکس : مدل‌های هوش مصنوعی Phi-3.5 مایکروسافت

به‌شکل شگفت‌انگیزی، هر 3 مدل در تعدادی از تست‌های بنچمارک شخص ثالث عملکردی تقریباً عالی دارند، حتی در برخی موارد از سایر مدل‌های هوش مصنوعی مانند جمینای 1.5 فلش گوگل، Llama 3.1 متا و حتی GPT-4o از OpenAI پیشی می‌گیرند. عرضه چنین مدل‌های قدرتمند و متن‌بازی تحسین کاربران در شبکه اجتماعی ایکس را نیز در پی داشته است.

مدل‌های هوش مصنوعی Phi-3.5
عکس : مدل‌های هوش مصنوعی Phi-3.5

Phi-3.5 Mini Instruct مدل هوش مصنوعی سبک با 3.8 میلیارد پارامتر است که پنجره زمینه با 128 هزار توکن دارد. این مدل برای کارهایی که نیاز به قابلیت‌های استدلال قوی دارند، مانند کدنویسی، حل مسائل ریاضی و استدلال مبتنی بر منطق ایده‌آل است. مدل Phi-3.5 Mini Instruct باوجود اندازه کوچک خود، عملکردی تقریباً عالی در تعدادی از بنچمارک‌ها دارد و از دیگر مدل‌های هم‌اندازه خود مانند Llama-3.1-8B-instruct و Mistral-7B-instruct در بنچمارک RepoQA جلو می‌زند.

Phi-3.5 Mini Instruct مدل هوش مصنوعی سبک با 3.8 میلیارد پارامتر است که پنجره زمینه با 128 هزار توکن دارد. این مدل برای کارهایی که نیاز به قابلیت‌های استدلال قوی دارند، مانند کدنویسی، حل مسائل ریاضی و استدلال مبتنی بر منطق ایده‌آل است. مدل Phi-3.5 Mini Instruct باوجود اندازه کوچک خود، عملکردی تقریباً عالی در تعدادی از بنچمارک‌ها دارد و از دیگر مدل‌های هم‌اندازه خود مانند Llama-3.1-8B-instruct و Mistral-7B-instruct در بنچمارک RepoQA جلو می‌زند.

مدل Phi-3.5 MoE ظاهراً اولین مدل MoE (ترکیب متخصصان) مایکروسافت است. این مدل‌ چندین نوع مدل مختلف را در خود ترکیب می‌کند که هرکدام در وظایف متفاوتی تخصص دارند. مدل جدید مایکروسافت از 42 میلیارد پارامتر فعال بهره می‌برد و پنجره زمینه آن 128 هزار توکن است. این مدل به‌طرز چشمگیری GPT-4o mini را در بنچمارک MMLU 5 در حوزه‌هایی مانند STEM، علوم انسانی، علوم اجتماعی در سطوح مختلف شکست می‌دهد.

مدل Phi-3.5 Vision Instruct قابلیت‌های پردازش متن و تصویر را ادغام می‌کند. این مدل چندوجهی به‌ویژه برای کارهایی مانند درک کلی تصویر، تشخیص کاراکترها، درک نمودار، جدول و خلاصه‌سازی ویدئو مناسب است. مانند 2 مدل قبلی، پنجره زمینه این مدل 128 هزار توکن است.

مدل Phi-3.5 Mini Instruct روی 3.4 تریلیون توکن با استفاده از 512 پردازشگر گرافیکی H100-80G طی 10 روز آموزش داده شده است، درحالی‌که مدل Vision Instruct روی 500 میلیارد توکن با استفاده از 256 پردازشگر گرافیکی A100-80G در 6 روز آموزش دید. مدل Phi-3.5 MoE نیز که دارای معماری ترکیبی از متخصصان است، طی 23 روز روی 4.9 تریلیون توکن با 512 پردازشگر گرافیکی H100-80G آموزش داده شد.

ارسال این خبر برای دوستان در شبکه های مجازی :
تلگرامواتساپایتاتوییترفیس بوکلینکدین