« یاشوا بنجیو »، دانشمند علوم کامپیوتر که یکی از پدرخواندههای هوش مصنوعی نیز شناخته میشود، درمورد خطرات توسعه بیقاعده این فناوری هشدار داده است. او توسعه هوش مصنوعی را به ساخت هیولاهایی تشبیه کرده که از انسان قویترند.
به گزارش سرویس اخبار هوش مصنوعی سایت شات ایکس و به نقل از دیجیاتو یاشوا بنجیو ازجمله افرادی است که بخش عمدهای از دوران حرفهای خود را به تحقیق درمورد شبکههای عصبی و الگوریتمهای یادگیری عمیق اختصاص داده است.
محصولاتی مانند ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او نگران توسعه هوش مصنوعی است و در مصاحبهای اختصاصی با یاهو فاینانس این نگرانیها را بیان کرده است.
یاشوا بنجیو، پدرخوانده هوش مصنوعی، درمورد توسعه بیقاعده این فناوری هشدار داد
به گفته بنجیو، هوش نوعی قدرت است و هرکسی بتواند این قدرت را در سطح انسانی یا بالاتر کنترل کند، بسیار بسیار قدرتمند خواهد بود. او در ادامه گفت:
«عموماً افرادی از فناوری استفاده میکنند که خواهان قدرت بیشتر هستند؛ تسلط اقتصادی، تسلط نظامی، تسلط سیاسی. قبل از ایجاد فناوری که بتواند قدرت را به روشهای خطرناک متمرکز کند، باید بسیار مراقب باشیم.»
یاشوا بنجیو در پاسخ به این سؤال که چرا باید نگران هوش مصنوعی در سطح انسانی باشیم؟ گفت:
«اگر این [هوش مصنوعی] به دست افراد نادرست بیفتد، میتواند بسیار خطرناک باشد. این ابزارها میتوانند بهزودی به کمک تروریستها و بازیگران دولتی بیایند که میخواهند دموکراسیهای ما را نابود کنند. مسئله دیگری که وجود دارد و بسیاری از دانشمندان نیز به آن اشاره کردهاند، نحوه آموزش هوش مصنوعی است. ما بهوضوح نمیدانیم چگونه میتوانیم از استقلال این سیستمها جلوگیری کنیم و نگذاریم اهدافی برای محافظت از خودشان داشته باشند. ما ممکن است کنترل این سیستمها را از دست بدهیم؛ بنابراین در مسیری هستیم که شاید هیولاهایی بسازیم که از ما قدرتمندتر بشوند.»
تاامروز افراد زیادی از حوزه فناوری و دانشمندان نگرانیهایشان درمورد آینده هوش مصنوعی و اثرات آن بر آینده بشریت را مطرح کردهاند؛ برای مثال، بیل گیتس بهتازگی سه نگرانی بزرگ خود درمورد هوش مصنوعی را علنی کرده است. در مقابل، برخی دیگر از مدیران فناوری اعتقاد دارند جهان به هوش مصنوعی پیشرفتهتر و بیشتری نیاز دارد و حتی باید سرمایهگذاریهای بیشتری روی ساخت دیتاسنترهای هوش مصنوعی انجام شود.