حدود دو هفته پیش، متا از مدل زبانی هوش مصنوعی خود با عنوان LLaMA رونمایی کرد؛ ابزاری که برخلاف رقبای خود مثل ChatGPT یا چتبات بینگ مایکروسافت، برای عموم منتشر نشده است. اما بهتازگی گزارشهایی از افشای هوش مصنوعی متا در یکی از پلتفرمهای نهچندان خوشنام اینترنت منتشر شده؛ اقدامی که نگرانهایی را پیرامون استفاده از ابزار مذکور در پی داشته است.
آیا هوش مصنوعی متا خطرساز خواهد بود؟
متا قصد انتشار LLaMA را در به صورت یک چتبات برای عموم نداشته است و تنها میخواست آن را در قالب یک بسته متنباز در اختیار فعالان حوزه AI قرار دهد. مدیران فیسبوک، علت این تصمیم را رفع مشکلات و باگها در کنار مواردی مثل ارائه پاسخهای جهتدار و نادرست اعلام کرده بودند. با این حال، تنها پس از گذشت حدود یک هفته، یک فایل تورنت قابل دانلود روی پلتفرم 4Chan قرار گرفت و به سرعت در سایتها و اپهای دیگر پخش شد که شامل مدل زبانی مورد بحث میشود.
برخی افراد معتقد هستند که افشای این دادهها، میتواند عواقب جدی برای فیسبوک به همراه داشته باشد و این شرکت را متهم به انتشار سهلانگارانه سرویس خود میکنند. یکی از کارشناسان حوزه امنیت سایبری، هشدار میدهد که کاربران باید بهزودی منتظر انبوهی از پیامهای اسپم شخصیسازی شده و تلاشهای جدید برای حملات فیشینگ باشند. البته برخی دیگر، میگویند که دسترسی آزادانه به AI از ضرورت بالایی برخوردار است و مدلهای زبانی پیچیده مشابه با محصول فیسبوک هم در گذشته به صورت عمومی در اختیار علاقهمندان قرار گرفتهاند و پیامدهای چندانی نداشتهاند.
نشریه دِورج در مصاحبه با چندین کارشناس امنیت دیجیتال، مطابقت مدل زبانی افشا شده با هوش مصنوعی متا را تایید کرده است. مدیران فیسبوک از اظهار نظر پیرامون منشاء نشت داده، خودداری کردهاند؛ اما مدیر اجرایی بخش AI این شرکت، تایید کرده است که برخی افراد، قصد دسترسی غیرمجاز به LLaMA را داشتهاند. شایان ذکر است که دانلود فایلهای مرتبط با ابزار مذکور که شامل ۴ مدل زبانی مختلف میشود، چندان سودی برای کاربران عادی نخواهد داشت؛ زیرا با یک مدل خام مواجه هستیم که نیاز به تمرین دارد و برای چنین کاری، به حجم عظیمی از قدرت پردازشی نیاز خواهد داشت.
گفته شده است که افراد دارای تجربه کار با سرورها و محیطهای توسعه در پروژههای پیچیده میتوانند با دنبال کردن راهنمای مناسب و صرف زمان کافی، LLaMA را به یک ابزار قابل استفاده تبدیل کنند. همچنین سختافزار و مهارت قبلی، تنها موانع استفاده غیرمجاز از هوش مصنوعی متا نیستند؛ زیرا این ابزار برای ایجاد مکالمه با کاربر مثل ChatGPT بهینهسازی نشده است. معمولاً چنین بهینهسازیهایی در مراحل پایانی توسعه ابزارهای مبتنی بر AI صورت میگیرند و فرایند نسبتاً دشواری به شمار میروند.
گرداننده موسسه تحقیقاتی غیرانتفاعی EleutherAI اشاره دارد که نیاز پردازش بالای هوش مصنوعی متا، عامل محدودکننده اصلی در استفاده موثر از آن خواهد بود؛ چون اغلب کاربران از حداقل سختافزار مورد نیاز برای اجرای LLaMA برخوردار نیستند و برای اجرای روان آن هم به سیستمهای پیشرفته و گرانتری نیاز خواهد بود. نیاز پردازشی سنگین، نشان میدهد که ابزار فیسبوک از قدرت زیادی برخوردار است؛ بهطوری که می تواند میلیاردها پارامتر را مورد ارزیابی قرار دهد. البته متا اشاره دارد که یکی از مدلهای زبانی با قابلیت بررسی ۱۳ میلیارد پارامتر، میتواند روی کارت گرافیک A100 اجرا شود و امکان اجاره ابری آن به ازای چند دلار در ساعت، وجود دارد. فیسبوک ادعا دارد که این مدل، میتواند عملکردی بهتر از GPT-3 با توان ارزیابی ۱۷۵ میلیارد پارامتر از خود نشان دهد.
شایان ذکر است که بنچمارکهای AI از اعتبار چندانی برخوردار نیستند و بسیاری اذعان دارند که نتایج آنها با عملکرد دنیای واقعی، تفاوت محسوسی از خود نشان میدهد. به همین دلیل نمیتوان ادعای فیسبوک را به درستی ارزیابی کرد و تعدادی از کاربران، گزارش دادهاند که امکان دریافت خروجی از LLaMA داخل بنچمارکها وجود ندارد؛ اما بعضی دیگر، علت این پدیده را ضعف در مهارت و توانایی اجرای مدل زبانی بیان میکنند. با این حال میتوان پیشبینی کرد که اگر هوش مصنوعی متا به درستی بهینهسازی شود، میتواند حداقل عملکردی مشابه با ChatGPT از خود نشان دهد.
افشای هوش مصنوعی متا، بحث درباره دسترسی آزاد به ابزارهای مبتنی بر AI را هم دوباره پیش کشیده است. اگرچه هدف مخالفان و موافقان این موضوع، یکسان است؛ اما دید کاملاً متفاوتی نسبت به مسئله دارند. موافقان، میگویند که دسترسی آزاد میتواند مشکلات و آسیبپذیریهای سرویسها را سریعتر مشخص کند و امکان سوء استفاده از آنها را محدود سازد. در سوی دیگر مخالفان ادعا دارند که دسترسی آزادانه میتواند خطرناک باشد و امکان استفاده از AI برای انجام امور پیچیده و خطرناک وجود دارد که در نهایت میتواند امنیت عموم را به خطر بیندازد.