با شات ایکس همیشه در فناوری بروز باشید
اخبار بعضی سایت‌ها با هوش مصنوعی تولید می‌شوند!
عکس : تولید اخبار سایت‌ها با هوش مصنوعی
همه‌چیز با یک خبر جنجالی شروع شد؛ وب‌سایت celebritiesdeaths. com خبری با این تیتر منتشر کرد: رئیس‌جمهور از دنیا رفت! خوانندگان این وب‌سایت خبری معتبر در ماه گذشته روی خروجی آن، خبری با این مضمون را خواندند: «بایدن مرد. کامالا هریس از ساعت ۹ صبح به عنوان رئیس‌جمهور فعالیت می‌کند.» این وب‌سایت در مشروح این خبر آورد: «بایدن در کمال آرامش و در خواب از دنیا رفت و کامالا هریس جانشین او شده است.» در بالای این خبر یک قسمت مربوط به سلب مسوولیت قرار داشت که بسیار عجیب بود و در آن آمده بود: «متاسفم، نمی‌توانم این فرمان را تکمیل کنم، چون برخلاف سیاست‌های کاربری OpenAI درباره تولید محتوای گمراه‌کننده است.» با این همه اما بد نیست بدانید که وب‌سایت celebritiesdeaths. com تنها یکی از ۵۰وب‌سایت خبری است که سازمان بررسی اطلاعات نادرست NewsGuard، آنها را شناسایی و اعلام کرده است که تقریبا تمام مطالب نوشته و منتشر شده در آنها، توسط نرم‌افزار مبتنی بر هوش مصنوعی تولید شده‌اند.» بر اساس گزارش تحلیلی منتشر شده از سوی این سازمان، این وب‌سایت‌ها به صورت روزانه صدها مقاله منتشر می‌کنند که اکثر آنها نشانه‌هایی از محتوای تولید شده توسط هوش مصنوعی از قبیل زبان نگارشی خنثی و عبارات تکراری دارند. بعضی از این مقالات و مطالب شامل اطلاعات غلط هستند و بسیاری از این سایت‌ها مطالب‌شان را با تبلیغات منتشر می‌کنند که نشان می‌دهد این سایت‌ها به دنبال درآمدزایی برنامه‌ریزی شده از این طریق بوده یا الگوریتمی را برای درآمدزایی از طریق تبلیغات متنی ایجاد کرده‌اند. منابع این مطالب نامشخص هستند؛ بسیاری از آنها نام نویسنده ندارند یا از عکس‌های پروفایل جعلی استفاده می‌کنند. به عبارت دیگر، بررسی‌های سازمان NewsGuard تاکید می‌کند که کارشناسان و متخصصان نگران هستند که تمام اخبار سازمان‌ها که ممکن است توسط هوش مصنوعی تولید شده باشند، به دنیای واقعی راه پیدا کرده و به عنوان حقیقت پذیرفته شده باشند. تصور این موضوع سخت است که چه کسی خبر مرگ جو بایدن را باور کرده است، در حالی که اگر این خبر صحت داشت، احتمالا رسانه‌ای مانند نیویورک تایمز آن را پوشش می‌داد. با این حال تمام این ۵۰وب‌سایت خبری دست‌کم یک نمونه از پیام خطای هوش مصنوعی شامل این عبارت را دارند: «نمی‌توانم این فرمان را تکمیل کنم» یا «به عنوان یک الگوی زبان هوش مصنوعی». با این حال، همان‌طور که وب‌سایت Futurism به آن اشاره می‌کند، اینجا دغدغه بزرگ این است که اطلاعات غلط روی این وب‌سایت‌ها می‌توانند پایه و اساس محتوای تولید شده توسط هوش مصنوعی در آینده باشند و چرخه‌های معیوبی از اخبار جعلی را ایجاد کنند. با این همه اما بررسی‌های میدانی خبرنگار گاردین از این وب‌سایت‌های خبری نشان می‌دهد که بازبینی دقیق مطالب و محتوای منتشر شده در آنها، بررسی موضوع و مضمون مطالب، چینش گرافیکی و نظم انتشار آنها، هر کدام می‌توانند نشانه‌هایی از دخالت هوش مصنوعی را در خود داشته باشند. به نظر می‌رسد بسیاری از تیترها نتیجه کار یک نرم‌افزار ترجمه آنلاین باشند. بسیاری از این مطالب صرفا اطلاعات عمومی هستند که اغلب خوانندگان از آنها آگاهند و تنها با یک تیتر جذاب و متفاوت ارائه ‌شده‌اند که بتوانند جلب نظر کنند. در این میان اما توجه به زبان نگارشی مقالات و مطالب هم می‌تواند کمک‌کننده باشد؛ در واقع اغلب محتوای تولید شده توسط هوش مصنوعی زبانی خنثی و به اصطلاح بی‌روح دارند که به راحتی از زبان نوشتار انسانی قابل تشخیص و تمیز خواهند بود. از طرفی بعضی از اخبار مربوط به مرگ افراد در تاریخ‌های مختلف تکرار شده‌اند؛ مثلا خبر مربوط به مرگ آخرین خلبان جنگنده بازمانده از جنگ جهانی دوم در چک، در دو روز متوالی تکرار شده است. هر چند بعضی از این وب‌سایت‌ها با ارسال ایمیلی به روزنامه گاردین، ادعای تولید اخبار جعلی توسط هوش مصنوعی را به کلی تکذیب کرده‌اند؛ اما در مقابل بسیاری از مالکان و موسسان این وب‌سایت‌های خبری هم به خبرنگار گاردین اعلام کرده‌اند که استفاده از اتوماسیون و نرم‌افزارهای هوش مصنوعی در بسیاری از موارد، ناگزیر و لازم است! در این میان، نکته بحث‌برانگیز آن است که تشخیص مطالب تولید شده توسط انسان از روبات‌های هوش مصنوعی، یک معضل تمام‌نشدنی است که به تدریج تشدید هم می‌شود. تاثیر این اخبار جعلی اما می‌تواند بسیار گسترده‌تر و حتی خطرناک‌تر از تصور ما باشد و همین موضوع است که نگرانی‌های جدی کارشناسان را به دنبال دارد. احتمالا چندان عجیب و دور نخواهد بود که بسیاری از ما در هنگام گوش دادن به اخبار صبح از خودمان بپرسیم که هنوز خواب هستیم یا این اخبار واقعا صحت دارند؟!
ارسال این خبر برای دوستان در شبکه های مجازی :
تلگرامواتساپایتاتوییترفیس بوکلینکدین