با شات ایکس همیشه در فناوری بروز باشید
هوش مصنوعی چگونه می‌تواند بشریت را نابود کند؟
عکس : خطرات هوش مصنوعی
ماه گذشته صدها نفر از افراد سرشناس در دنیای AI نامه سرگشاده‌ای را امضا کردند که دربردارنده هشدار در مورد احتمال نابودی بشریت به دست هوش مصنوعی است. متن بیانیه تک‌جمله‌ای در این نامه به شرح زیر است: «کاهش خطر نابودی بشریت به دست هوش مصنوعی باید همچون مقابله با سایر خطرات جدی جهانی مثل پاندمی‌های ویروس‌های مختلف و جنگ هسته‌ای، در اولویت قرار بگیرد.» این نامه دربردارنده جدیدترین هشدارهای شوم در مورد هوش مصنوعی بوده که به‌طور قابل‌توجهی به جزئیات این موضوع نیز پرداخته است. با توجه به اینکه امروزه AI نمی‌تواند انسان را نابود کند و تنها در برخی از موارد او را تهدید می‌کند، چرا افرادی که بیشترین اطلاعات را در مورد هوش مصنوعی دارند، این‌چنین در مورد آن نگران هستند؟

سناریویی ترسناک

کسندرا، شرکت فعال در حوزه فناوری، معتقد است روزی دولت‌ها، شرکت‌ها و پژوهشگران مستقل می‌توانند از سیستم‌های قوی AI برای مدیریت موارد مختلف استفاده کنند؛ از تجارت گرفته تا رفاه. این سیستم‌ها توانایی انجام کارهایی را دارند که ما نمی‌خواهیم آن‌ها را انجام دهند. اگر انسان بخواهد در کار چنین سیستم‌هایی دخالت یا فعالیت آن‌ها را متوقف کند، این سیستم‌ها می‌توانند برای ادامه فعالیت خود به هر قیمتی مقابل انسان بایستند یا حتی کمر به نابودی او ببندند. «یوشوآ بنجیو» (Yoshua Bengio)، استاد دانشگاه و پژوهشگر حوزه AI از دانشگاه مونترآل، در مورد خطر نابودی بشر به دست هوش مصنوعی این‌‌چنین گفته است: «سیستم‌های کنونی تهدیدی برای انقراض بشر نیستند؛ اما در ۱ یا ۲ یا ۵ سال آینده وضعیت چگونه خواهد شد؟ در این مورد تردیدهای زیادی وجود دارد. مسئله این است که آیا می‌توانیم تضمین کنیم این سیستم‌ها در آینده هم به‌جایی نمی‌رسند که فاجعه‌بار شوند یا خیر.» اجازه دهید با بیان مثالی ساده این موضوع را برای شما روشن‌تر کنیم؛ اگر از یک دستگاه بخواهیم تا جایی که می‌تواند گیره کاغذ تولید کند، در پاسخ خواهد گفت چنین درخواستی می‌تواند همه‌چیز را تغییر دهد و حتی شاید به قیمت بیکار‌شدن نیروهای کارخانه‌های تولیدکننده این گیره‌ها تمام شود. خطر نابودی بشریت به‌واسطه AI چگونه می‌تواند به دنیای واقعی (یا دنیای خیالی در آینده که تحقق آن خیلی هم دور نیست) ربط پیدا کند؟ ممکن است شرکت‌ها سیستم‌های هوش مصنوعی را بیشتر و بیشتر مستقل کرده و آن‌ها را به زیرساخت‌های حیاتی مثل شبکه‌های برق‌رسانی، بازارهای سهام و سلاح‌های نظامی متصل کنند. درصورت رخ‌دادن چنین اتفاقی، مشکلات از همان زمان شروع می‌شوند. طی همین چند سال گذشته، به‌نظر نمی‌رسید متخصصان رخ‌دادن چنین اتفاقی را محتمل بدانند؛ اما زمانی که شرکت‌هایی مثل OpenAI مدل‌های هوش مصنوعی بسیار پیشرفته‌ای را عرضه کردند، معلوم شد اگر شرکت‌های هوش مصنوعی با این سرعت به پیشرفت‌های مختلف دست یابند، ممکن است شاهد این اتفاق باشیم. «آنتونی آگیره»، کیهان‌شناس در دانشگاه کالیفرنیا و بنیان‌گذار مؤسسه آینده فیوچر اف لایف (Future of Life)، یکی از مؤسسات فعال در ارائه نامه مذکور در ابتدای مقاله، در مورد خطر نابودی بشریت به دست هوش مصنوعی این‌چنین گفته است: «هوش مصنوعی در آینده می‌تواند نماینده انسان باشد و با افزایش استقلال خود به جایی برسد که توانایی تصمیم‌گیری و تفکر را از انسان‌های کنونی و مؤسسات درحال اداره توسط انسان‌ها بگیرد.» در برخی از موارد واضح است سیستم بزرگی که جامعه و اقتصاد را اداره می‌کند، واقعاً نه تحت کنترل انسان است و نه می‌توان آن را متوقف کرد. درصورتی‌که چنین اتفاقی رخ دهد، شاید فعالیت شرکت‌های بی‌شماری با تعدادی بیش از شرکت‌های ثبت‌شده در فهرست S&P 500، متوقف شود. البته بسیاری از متخصصان چنین فرضیه‌ای را مضحک می‌دانند. «اورن اتزوینی»، مؤسس و مدیر اجرایی مؤسسه هوش مصنوعی آلن (Allen Institute for AI)، آزمایشگاهی پژوهشی در سیاتل، در مورد این موضوع این‌چنین گفته است: «بیان فرضیه گمانی، روشی مؤدبانه برای اظهارنظرم در مورد خطر نابودی بشر توسط AI است.»

آیا نشانه‌هایی مبنی بر توانایی هوش مصنوعی برای نابود‌کردن بشر وجود دارد؟

کاملاً نه؛ اما پژوهشگران درحال تبدیل چت‌بات‌هایی مثل ChatGPT به سیستم‌هایی هستند که می‌توانند براساس متونی که خود تولید می‌کنند، کارهایی را انجام دهند. پروژه AutoGPT مثال بارزی از این رویکرد است. مثلاً می‌توان اهدافی مثل «تأسیس یک شرکت» یا «کسب درآمد» را برای چنین سیستمی مشخص کرد. در مرحله بعدی، سیستمْ جستجوی خود را برای روش‌های دستیابی به این اهداف آغاز می‌کند و ادامه می‌دهد؛ مخصوصاً اگر به سایر سرویس‌های اینترنتی متصل باشد. سیستمی مثل AutoGPT می‌تواند نرم‌افزار کامپیوتر ایجاد کند و اگر پژوهشگران دسترسی آن به یک سرور کامپیوتری را فراهم کنند، حتی از عهده اجرای آن نرم‌افزارها نیز برمی‌آید. این سیستم پیشرفته با چنین روشی می‌تواند تقریباً هر کاری را آنلاین انجام دهد که شامل بازیابی اطلاعات، استفاده از اپلیکیشن‌ها، ایجاد اپلیکیشن‌های جدید و حتی تقویت توانایی‌های خودش می‌شود. سیستم‌هایی مثل AutoGPT اکنون عملکرد خوبی ندارند و معمولاً در یک دور باطل و بی‌نهایت گیر می‌کنند. مدتی پیش محققان به یک سیستم تمام منابع موردنیاز برای توسعه را دادند، اما آن سیستم موفق به انجام این کار نشد؛ البته با گذشت زمان می‌توان تمام این محدودیت‌ها را برطرف کرد. «کانر لیهی»، مؤسس کانجکچر (Conjecture)، شرکتی که قصد دارد فناوری‌های هوش مصنوعی را با ارزش‌های انسانی هم‌تراز کند، در مورد این موضوع این‌چنین گفته است: «پژوهشگران به‌طور جدی درحال تلاش برای ساخت سیستم‌هایی هستند که بتوانند خودشان را تقویت کنند. درحال‌حاضر چنین تلاشی جواب نمی‌دهد؛ اما روزی که نمی‌دانیم کی فرا می‌رسد، به نتیجه خواهد رسید.» او معتقد است تعیین اهدافی مثل کسب درآمد برای این سیستم‌ها از سوی پژوهشگران، شرکت‌ها و مجرمان می‌تواند منجر به اتفاقاتی مثل دستبرد به بانک‌ها، زمینه‌سازی انقلاب در کشورهای نفت‌خیز و تصاحب معاملات آتی نفتی یا تکثیر خودشان در زمان تلاش انسان‌ها برای توقف فعالیت آن‌ها شود.

سیستم‌های هوش مصنوعی سوء‌رفتار را از کجا یاد می‌گیرند؟

سیستم‌های AI مانند ChatGPT براساس شبکه‌های عصبی ساخته می‌شوند. این شبکه‌ها درحقیقت یک‌سری سیستم ریاضی با قابلیت فراگیری مهارت‌ها براساس تحلیل داده‌ها هستند. در سال ۲۰۱۸، شرکت‌هایی مثل گوگل و Open AI ساخت یک‌سری شبکه عصبی را آغاز کردند که با استفاده از اطلاعات جمع‌آوری‌شده از اینترنت، آموزش داده می‌شدند. این سیستم‌ها با مشخص‌کردن الگوها در این داده‌ها یاد می‌گیرند محتواهایی مثل مقاله، شعر، نرم‌افزارهای کامپیوتری و مکالمات انسانی را خودشان بنویسند. نتیجه این کار ایجاد سیستم‌هایی مثل ChatGPT است. این سیستم‌ها می‌توانند از اطلاعاتی که اختیار دارند، چیزهای بیشتری یاد بگیرند. حتی ممکن است رفتارهای غیرمنتظره‌ای را هم از این سیستم‌ها ببینیم. پژوهشگران به‌تازگی اعلام کرده‌اند که متوجه وجود سیستمی شده‌اند که می‌توانسته است برای انجام یک آزمایش تشخیص ربات یا انسان بودن کاربر، انسانی را به خدمت بگیرد و اگر فردی از او می‌پرسیده، ربات است یا خیر، دروغ می‌گفته و خود را انسانی با مشکل بینایی معرفی می‌کرده است. برخی از متخصصان نگران این هستند که پژوهشگران در حین تقویت چنین سیستم‌هایی، آن‌ها را با حجم فزاینده‌ای از داده‌ها آموزش دهند و همین رویکرد باعث شود بیشتر رفتارهای بد را یاد بگیرند.

چه کسانی پشت این هشدارها هستند؟

در اوایل دهه ۲۰۰۰ نویسنده جوانی به نام «الیزر یادکووسکی»، هشدار در مورد خطر نابودی بشریت به‌دلیل توسعه AI را شروع کرد. پست‌های آنلاین او باعث ایجاد جامعه‌ای از افراد نگران این موضوع شد. این جامعه که عقل‌گرایان و همنوع‌دوستان تأثیرگذار نام گرفت، به‌شدت در جامعه علمی، اندیشکده‌های دولتی و صنعت فناوری تأثیرگذار شد. آقای یادکووسک و آثارش برای ایجاد هر دو شرکت OpenAI و Deepmind (آزمایشگاهی در حوزه AI که گوگل آن را در سال ۲۰۱۴ خرید)، نقشی اساسی ایفا کرده‌اند. بسیاری از اعضای جامعه مذکور در این دو آزمایشگاه مشغول به کار شدند؛ زیرا معتقد بودند به‌دلیل اینکه بر خطرات هوش مصنوعی واقف هستند، در بهترین موقعیت برای ایجاد آن قرار گرفته‌اند. سازمان‌های Center for A.I. Safety و Future of Life Institute شدیداً به این جنبش پایبند هستند. گفته‌های پژوهشگران پیشتاز در حوزه AI و همچنین افراد سرشناس این صنعت که از مدت‌ها پیش در مورد آن هشدار داده‌اند، منشأ این هشدارهای جدید است. این نامه سرگشاده توسط «سم آلتمن»، مدیرعامل OpenAI و همچنین «دمیس هاسابیس» که به تأسیس Deepmind کمک کرده و اکنون نظارت بر یک آزمایشگاه جدید را بر عهده گرفته (که قرار است برجسته‌ترین پژوهشگران حوزه هوش مصنوعی از Deepmind و گوگل در آن مشغول به کار شوند)، امضا شده است. دیگر چهره‌های سرشناس این حوزه، یعنی دکتر بنجیو و جفری هینتون که به‌تازگی به‌عنوان مدیر اجرایی و پژوهشگر در گوگل مشغول به کار شده است نیز یک یا دو نامه هشداردهنده را امضا کرده‌اند. این دو نفر در سال ۲۰۱۸ به‌دلیل کار روی شبکه‌های عصبی موفق به دریافت جایزه تورینگ شده‌اند که معمولاً جایزه نوبل کامپیوتر نامیده می‌شود.
ارسال این خبر برای دوستان در شبکه های مجازی :
تلگرامواتساپایتاتوییترفیس بوکلینکدین