با شات ایکس همیشه در فناوری بروز باشید
مدل های o3 و o3 mini هوش مصنوعی OpenAI با قابلیت استدلال پیشرفته معرفی شد
عکس : مدل های o3 و o3 mini هوش مصنوعی OpenAI با قابلیت استدلال پیشرفته معرفی شد

شرکت OpenAI با معرفی دو مدل استدلالی پیشرفته هوش مصنوعی خود با نام‌های o3 و o3 mini، به اعلامیه‌های «Days of OpenAI 12» پایان داد.

به گزارش سرویس اخبار هوش مصنوعی سایت شات ایکس و به نقل از ترنجی o3 و o3 mini به‌عنوان مدل‌های پیشرفته استدلالی OpenAI معرفی شده‌اند که اوایل امسال با مدل o1 منتشر شد.

جالب‌توجه است که OpenAI برای جلوگیری از درگیری یا سردرگمی احتمالی با شرکت مخابراتی بریتانیایی O2، از استفاده از عنوان «o2» صرف‌نظر کرده است.


مدل o3: تعیین استانداردهای جدید در استدلال و هوش

مدل های o3 و o3 mini هوش مصنوعی OpenAI
عکس : مدل های o3 و o3 mini هوش مصنوعی OpenAI

مدل o3 معیار جدیدی را برای استدلال و هوش ایجاد می‌کند و از مدل قبلی خود در حوزه‌های مختلف بهتر عمل می‌کند:

کدگذاری: به بهبود 22.8 درصدی در تست‌های کدگذاری تأییدشده SWE-Bench در مقایسه با o1 دست یافت.

ریاضیات: تقریباً در آزمون AIME 2024 با نمره 96.7 درصد شرکت کرده و فقط یک سؤال را از دست داد.

علوم عمومی: کسب نمره 87.7 درصد در تست GPQA Diamond که مشکلات علمی در سطح متخصص را ارزیابی می‌کند، تضمین شده است.

معیار ARC-AGI: با کسب امتیاز 87.5 درصد در شرایط محاسباتی بالا، خط پنج ساله شکست‌ناپذیری معیار ARC-AGI را شکست و از آستانه 85 درصدی انسان نیز گذشت.

معیار ARC-AGI با آزمایش توانایی یک مدل برای حل مسائل جدید بدون تکیه‌بر الگوهای حفظ‌شده، هوش تعمیم‌یافته را ارزیابی می‌کند. با این دستاورد، OpenAI مدل o3 را به‌عنوان یک گام مهم به‌سمت هوش مصنوعی عمومی (AGI) توصیف می‌کند.

o3 Mini: یک جایگزین فشرده و مقرون‌به‌صرفه

o3 mini یک نسخه خاص از o3 را ارائه می‌دهد که برای کارایی و مقرون‌به‌صرفه بودن بهینه شده است:

برای کدنویسی و عملکرد سریع‌تر طراحی شده است.

دارای سه تنظیمات محاسباتی: کم، متوسط ​​و زیاد.

در تنظیمات محاسباتی متوسط ​​از مدل o1 بهتر عمل می‌کند و هزینه‌ها و تأخیر را کاهش می‌دهد.

o3 Mini
عکس : o3 Mini

OpenAI همچنین Deliberative Alignment را نیز معرفی کرده است، یک الگوی آموزشی جدید با هدف بهبود ایمنی ازطریق ترکیب استدلال ساختاری همسو با استانداردهای ایمنی نوشته‌شده توسط انسان. جنبه‌های کلیدی عبارتند از:

مدل‌ها به‌صراحت در استدلال زنجیره‌ای از فکر (CoT) که با خط‌مشی‌های OpenAI هماهنگ است، درگیر می‌شوند.

نیاز به داده‌های CoT با برچسب انسانی را حذف می‌کند و رعایت معیارهای ایمنی را افزایش می‌دهد.

پاسخ‌های حساس به زمینه و ایمن‌تر را در طول استنتاج در مقایسه با روش‌های قبلی مانند RLHF و Constitutional AI فعال می‌کند.

آموزش و روش‌شناسی

Deliberative Alignment هم از نظارت مبتنی‌بر فرآیند و هم نظارت مبتنی‌بر نتیجه استفاده می‌کند:

آموزش با وظایف کمکی شروع می‌شود، به‌استثنای داده‌های ایمنی خاص.

مجموعه داده‌ای از دستورات مربوط به استانداردهای ایمنی برای تنظیم دقیق، توسعه داده شده است.

یادگیری تقویتی با استفاده از سیگنال‌های پاداش مرتبط با رعایت ایمنی، مدل را اصلاح می‌کند.

نتایج:

مدل o3 در معیارهای ایمنی داخلی و خارجی بهتر از GPT-4o و سایر مدل‌های پیشرفته عمل کرده است.

پیشرفت‌های قابل‌توجهی در اجتناب از خروجی‌های نامناسب و درعین‌حال اجازه دادن به پاسخ‌های مناسب مشاهده شده است.

دسترسی زودهنگام و فرصت‌های تحقیق

OpenAI همچنان به اولویت تحقیقات ایمنی ادامه می‌دهد زیرا مدل‌های استدلال به‌طور فزاینده‌ای پیچیده می‌شوند. این ابتکار با همکاری‌های مداوم این شرکت با سازمان‌هایی مانند مؤسسه‌های ایمنی هوش مصنوعی ایالات‌متحده و بریتانیا همسو می‌شود و تضمین می‌کند که پیشرفت‌های هوش مصنوعی ، ایمن و سودمند باقی بماند.

ارسال این خبر برای دوستان در شبکه های مجازی :
تلگرامواتساپایتاتوییترفیس بوکلینکدین