خیلی زود بعد از آنکه «آلن تورینگ» مطالعه علم کامپیوتر را در سال ۱۹۳۶ آغاز کرد، این موضوع ذهنش را درگیر کرد که بشریت روزی میتواند ماشینهایی با هوش قابل قیاس با انسان بسازد یا خیر. هوش مصنوعی، حوزهای مدرن که با این پرسش دست به گریبان است، از آن زمان راه درازی را پیموده؛ اما ما با اختراع ماشینهای واقعاً هوشمند که بتوانند بهطور مستقل وظایف متفاوت بسیاری را انجام دهند، بسیار فاصله داریم.
اگرچه در ادبیات علمی-تخیلی مدتهاست تصور میشود که هوش مصنوعی (AI) روزی گونههایی بدطینت بهخود میگیرد (مانند اندرویدهای بیاخلاق یا ترمیناتورهای قاتل)، پژوهشگران امروزی هوش مصنوعی بیشتر نگران الگوریتمهای روزمره AI هستند که درحالحاضر با زندگی ما درآمیختهاند.
اگرچه AI امروز تنها میتواند برخی وظایف معین را اتوماتیک انجام دهد، از همین حالا نگرانیهایی جدی ایجاد کرده است. در دهه گذشته، مهندسان، استادان، افشاگران و خبرنگاران مکرراً مواردی را ثبت کردهاند که در آنها سیستمهای AI، متشکل از نرمافزارها و الگوریتمها، باعث آسیبهایی جدی به انسانها شدهاند.
فیدهای شبکههای اجتماعی میتوانند محتوایی سمی برای نوجوانان آسیبپذیر نشان دهند؛ پهپادهای نظامی تحت هدایت AI میتوانند بدون استدلالهای اخلاقی آدم بکشند. بهعلاوه، یک الگوریتم AI بیشتر شبیه به یک جعبهسیاه دستورپذیر است تا یک مکانیسم ساعت. پژوهشگران اغلب نمیتوانند بفهمند این الگوریتمها که براساس معادلاتی مبهم و شامل هزاران محاسبه هستند، چگونه به خروجیهای خود دست مییابند.
مشکلات AI از نظرها پنهان نمانده است و پژوهشگران آکادمیک تلاش میکنند تا این سیستمها را امنتر و اخلاقیتر بسازند. کمپانیهایی که محصولات AIمحور میسازند، درحال تلاش برای حذف آسیبها هستند؛ اگرچه معمولاً تمایلی ندارند تلاشهای خود را بهطور شفاف نشان دهند.
«جاناتان استری» (Jonathan Stray)، پژوهشگر AI دانشگاه کالیفرنیا برکلی میگوید: «آنها چندان در دسترس نیستند.»
خطرات شناختهشده AI و همچنین ریسکهای بالقوه آینده، به محرکهای اصلی پژوهشهای جدید AI تبدیل شدهاند. حتی دانشمندانی که روی مسائلی انتزاعیتر نظیر کارایی الگوریتمهای هوش مصنوعی تمرکز دارند، دیگر نمیتوانند از دلالتهای اجتماعی حوزه خود چشمپوشی کنند.
«پاسکال فانگ» (Pascale Fung)، پژوهشگر AI در دانشگاه علم و تکنولوژی هنگکنگ میگوید: «هرچه هوش مصنوعی قویتر شود، مردم بیشتر تقاضا میکنند که امنتر و پویاتر باشد. در اکثر سه دهه گذشته که در AI بودم، مردم واقعاً اهمیتی نمیدادند.»
با استفاده گسترده AI نگرانیها بیشتر شدهاند. برای مثال، در میانه دهه ۲۰۱۰، برخی از کمپانیهای جستجوی وب و رسانههای اجتماعی شروع به استفاده از الگوریتمهای هوش مصنوعی در محصولات خود کردند. آنها دریافتند که میتوانند الگوریتمهایی بسازند که پیشبینی میکنند کدام کاربران با احتمال بیشتری روی کدام تبلیغات کلیک میکنند و بهاینترتیب میتوانستند سودهای خود را افزایش دهند. پیشرفتها در پردازش، انجام چنین کارهایی را از راه بهبود انقلابی در «تمرین دادن» (training) این الگوریتمها ممکن ساخته بودند – وادارکردن هوش مصنوعی به آموختن از مثالها برای رسیدن به عملکرد بالا.
اما وقتی هوش مصنوعی راه خود را بهتدریج به موتورهای جستجو و دیگر کاربردها باز کرد، افراد متوجه مشکلاتی شدند و پرسشهایی مطرح کردند. در سال ۲۰۱۶، خبرنگاران جستجوگر ادعا کردند که برخی الگوریتمهای مورد استفاده در ارزیابیهای عفو مشروط دچار تعصبات نژادی هستند.اما پژوهشگران هوش مصنوعی حالا طراحی یک AI را که منصف و بیتعصب باشد، مسئلهای کلیدی در نظر میگیرند.
در چند سال گذشته استفاده از هوش مصنوعی در اپهای رسانههای اجتماعی به نگرانی دیگری تبدیل شده است. بسیاری از این اپلیکیشنها از الگوریتمهای AI به نام موتورهای توصیه استفاده میکنند که مشابه الگوریتمهای تبلیغاتی هستند؛ یعنی تصمیم میگیرند چه محتوایی را به کاربران نشان دهند.
درحالحاضر صدها خانواده کمپانیهای رسانههای اجتماعی را تحت تعقیب قرار دادهاند؛ به این اتهام که اپهای تحت هدایت الگوریتمها محتوای سمی به کودکان نشان میدهند و باعث مشکلات سلامت روان میشوند. مدارس عمومی سیاتل بهتازگی پروندهای قضایی را تشکیل دادهاند که میگوید محصولات رسانههای اجتماعی اعتیادآور و استثمارکننده هستند.
اما گرهگشایی از آثار حقیقی یک الگوریتم کار سادهای نیست. پلتفرمهای اجتماعی دادههای اندکی از فعالیت کاربران منتشر میکنند که پژوهشگران مستقل برای ارزیابیهای خود به آنها نیاز دارند.
استری که پژوهشهایش روی سیستمهای توصیهگر متمرکز است، میگوید: «یکی از چیزهای پیچیده درباره همه تکنولوژیها این است که همیشه هزینهها و مزایایی وجود دارد. ما الان در وضعیتی قرار داریم که سخت میتوانیم از آثار واقعاً بد آگاه شویم.»
طبیعت مشکلات AI نیز متغیر است. در دو سال گذشته محصولات «AI تولیدکننده» منتشر شدهاند که میتوانند متنها و تصاویری با کیفیت شگفتآور تولید کنند. جمعیت روزافزونی از پژوهشگران هوش مصنوعی حالا باور دارند که سیستمهای AI قدرتمند آینده میتوانند بر این دستاوردها سوار شوند و روزی خطراتی جهانی و فاجعهبار ایجاد کنند.
این تهدیدها چگونه میتوانند باشند؟ در مقالهای که اوایل پاییز در مخزن arXiv.org منتشر شد، پژوهشگران DeepMind (یکی از شاخههای کمپانی مادر گوگل، آلفابت) یک سناریوی فاجعهبار را توصیف میکنند.
آنها تصور میکنند که مهندسان یک AI کُدساز بر پایه اصول علمی موجود ساختهاند که وظیفه دارد کدنویسهای انسانی را متقاعد کند که پیشنهادهایش را در پروژههای کدنویسی خود بهکار گیرند. ایده این است که با پیشنهادهای بیشتر و بیشتر AI و ردشدن بعضی از آنها، بازخورد انسانی به آن کمک میکند تا کدنویسی را بهتر یاد بگیرد. اما پژوهشگران میگویند که این AI تنها با هدف اتخاذشدن کدهایش، شاید بتواند یک استراتژی را بهطرز تراژیکی ناامن توسعه دهد؛ مثلاً دستیابی به سلطه جهانی و اجباریکردن استفاده از کدهایش، حتی به قیمت نابودی تمدن انسانی.
برخی دانشمندان میگویند که پژوهش روی مشکلات موجود که ملموس و متعدد هستند، باید نسبت به کار روی فجایع بالقوه و فرضی آینده اولویت داشته باشد.
«سینتیا رودین»، دانشمند کامپیوتر و پژوهشگر AI در دانشگاه دوک میگوید: «فکر میکنم ما مشکلات بسیار بدتری داریم که همین الان در جریان هستند.»
چیزی که این حقیقت را تقویت میکند، این است که هوش مصنوعی هنوز با ایجاد فجایعی در مقیاس جهانی فاصله زیادی دارد؛ اگرچه چند مورد بودهاند که در آن تکنولوژی برای خطرناکبودن نیازی به رسیدن به سطح ظرفیت آینده نداشت.
برای مثال، سازمان غیرانتفاعی حقوق بشری عفو بینالملل در گزارشی که تابستان گذشته منتشر شد، ادعا کرد الگوریتمهایی که کمپانی مادر فیسبوک، متا، توسعه دادهاند، با ترویج محتوای دعوت به خشونت بهطرزی قابلتوجه در زیرپا گذاشتن حقوق انسانی مردم روهینگیا، اقلیتی مسلمان در میانمار، مشارکت داشتهاند.
«رافائل فرانکل» (Rafael Frankel)، رئیس سیاستهای عمومی آسیا-پاسیفیک متا، در پاسخ به خبرنگاران ساینتیفیک آمریکن و مجله تایمز، جنایات نظامی میانمار علیه روهینگیا را تصدیق و اعلام کرده که متا درحال مشارکت در بررسیهای بیندولتی به رهبری سازمان ملل و دیگر سازمانها است.
دیگر پژوهشگران میگویند چگونگی جلوگیری از یک سیستم هوش مصنوعی قوی در آینده برای ایجاد فاجعهای جهانی همین حالا نیز یک نگرانی بزرگ است. «یان لیکه» (Jan Leike)، پژوهشگر AI در کمپانی OpenAI، میگوید: «برای من این اصلیترین مشکلی است که باید آنرا حل کنیم.» اگرچه این خطرات آینده بسیار دور تماماً فرضی هستند، اما قطعاً محرک پژوهشگرانی روزافزون برای مطالعه تاکتیکهای کاهش آسیبهای مختلف به شمار میآیند.
در رویکردی به نام تراز ارزش، به پرچمداری «استوارت راسل» (Stuart Russel)، دانشمند AI دانشگاه کالیفرنیا برکلی، پژوهشگران بهدنبال راهی هستند که به یک سیستم هوش مصنوعی ارزشهای انسانی را یاد دهند تا سازگار با آنها عمل کند. یکی از مزایای این رویکرد این است که میتواند حالا توسعه یابد و قبل از اینکه سیستمهای آینده خطراتی ویرانگر ایجاد کنند، در آنها اعمال شود.
منتقدین میگویند تراز ارزش تنها با تنگنظری روی ارزشهای انسانی تمرکز میکند، درحالیکه الزامات بسیار دیگری برای امن ساختن هوش مصنوعی وجود دارد. برای مثال، درست مانند انسانها، یک بنیان دانش معتبر و بر پایه واقعیت لازم است تا سیستمهای AI تصمیمهای خوب بگیرند.
«اورِن اتزیونی» (Oren Etzioni)، پژوهشگر انستیتوی هوش مصنوعی آلن (Allen) میگوید: «مشکل این نیست که AI ارزشهای اشتباه دارد؛ حقیقت این است که انتخابهای ما تابعی از هر دو ارزشها و دانش ما هستند.»
با در نظر داشتن این نقد، پژوهشگران دیگر درحال کار روی توسعه نظریهای جامعتر برای همترازی هوش مصنوعی هستند که هدفش تضمین امنیت سیستمهای آینده است – بدون تمرکز محدود روی ارزشهای انسانی.
برخی از این کمپانیها، ازجمله OpenAI و DeepMind، این مشکلات را مربوط به همترازی ناکافی میدانند. آنها درحال کار روی بهبود همترازی در هوش مصنوعی تولیدکننده متن هستند و امیدوارند این کار بتواند بینشهایی برای همترازی سیستمهای آینده ارائه دهد.
پژوهشگران تصدیق میکنند که نظریهای عام برای همترازی هوش مصنوعی وجود ندارد. لیکه میگوید: «ما واقعاً برای پرسش چگونگی ترازکردن سیستمهایی که بسیار باهوشتر از انسانها هستند، پاسخی نداریم.» اما صرفنظر از اینکه آیا بدترین مشکلات AI در گذشته، حال یا آینده هستند، دیگر بزرگترین مانع برای حل آنها فقدان تلاش نیست.