با شات ایکس همیشه در فناوری بروز باشید
هشدار کارشناسان در مورد توانایی هوش مصنوعی در ایجاد یک اپیدمی
عکس : هشدار کارشناسان در مورد توانایی هوش مصنوعی در ایجاد یک اپیدمی

مدل‌های تخصصی هوش مصنوعی که بر روی داده‌های بیولوژیکی آموزش دیده‌اند، شاهد پیشرفت‌های قابل‌توجهی بوده‌اند که به تسریع توسعه واکسن‌ها، درمان بیماری‌ها و موارد دیگر کمک می‌کنند؛ اما همان ویژگی‌هایی که این مدل‌ها را مفید می‌کنند، خطرات بالقوه‌ای را به همراه دارند.

به همین دلیل است که کارشناسان در مقاله جدیدی که در ۲۲ اوت در مجله معتبر Science منتشر شد، از دولت‌ها خواسته اند که نظارت اجباری و برنامه‌های محافظتی را برای مدل‌های پیشرفته بیولوژیکی معرفی کنند.

به گزارش سرویس اخبار هوش مصنوعی سایت شات ایکس و به نقل از باشگاه خبرنگاران جوان در حالی که مدل‌های هوش مصنوعی امروزی ممکن است به میزان قابل توجهی در خطر بیولوژیکی نقش نداشته باشند، سیستم‌های آینده می‌توانند به مهندسی پاتوژن‌های جدیدی که قادر به ایجاد بیماری‌های همه‌گیر هستند٬ کمک کنند.

این هشدار در مقاله توسط نویسندگانی از دانشگاه جان هاپکینز، دانشگاه استنفورد و دانشگاه فوردهام صادر شده است که می‌گویند مدل‌های هوش مصنوعی در حال آموزش هستند یا می‌توانند مقادیر زیادی از داده‌های بیولوژیکی را به طور معنی‌داری دستکاری کنند، از سرعت بخشیدن به طراحی دارو‌ها و واکسن‌ها گرفته تا بهبود عملکرد داده‌های بیولوژیکی.

اما مانند هر فناوری جدید قدرتمند، چنین مدل‌های بیولوژیکی نیز خطرات قابل توجهی را به همراه خواهند داشت.

به دلیل ماهیت کلی آن ها، همان مدل بیولوژیکی که قادر به طراحی یک ناقل ویروسی خوش خیم است، می‌تواند برای ارائه ژن درمانی برای طراحی یک ویروس بیماری‌زاتر که قادر به فرار از ایمنی ناشی از واکسن باشد، استفاده شود.

اگرچه بعید است مدل‌های هوش مصنوعی امروزی به ریسک‌های بیولوژیکی تا اندازه قابل توجهی کمک کنند، اما مواد ضروری برای ایجاد مدل‌های بیولوژیکی پیشرفته نگران‌کننده ممکن است از قبل وجود داشته باشند یا به زودی ایجاد شوند.

طبق گزارش‌ها، کارشناسان توصیه کرده اند که دولت‌ها مجموعه‌ای از آزمایش‌ها را ایجاد کنند که مدل‌های هوش مصنوعی بیولوژیکی باید آن را قبل از انتشار برای عموم انجام دهند؛ بنابراین مقامات می‌توانند تعیین کنند که چقدر دسترسی به مدل‌ها باید محدود شود.

آنیتا سیسرو، معاون مدیر مرکز امنیت سلامت جانز هاپکینز و یکی از نویسندگان این مقاله، گفت: ما باید از هم اکنون خطرات ابزار‌های به ویژه قدرتمند در آینده را برنامه ریزی کنیم.

به دلیل پیشرفت‌های مورد انتظار در قابلیت‌های هوش مصنوعی و سهولت نسبی در دست‌یابی به مواد بیولوژیکی و استفاده از اشخاص ثالث برای انجام آزمایش‌ها از راه دور، سیسرو معتقد است که خطرات بیولوژیکی ناشی از هوش مصنوعی ممکن است در طول ۲۰ سال آینده و شاید حتی بسیار کمتر خود را نشان دهند، مگر این که نظارت درستی وجود داشته باشد.

او می‌افزاید: ما باید نه تنها در مورد نسخه فعلی همه ابزار‌های موجود، بلکه به نسخه‌های بعدی فکر کنیم؛ زیرا شاهد رشد فوق العاده ای در این زمینه هستیم.

منبع: فاکس نیوز

ارسال این خبر برای دوستان در شبکه های مجازی :
تلگرامواتساپایتاتوییترفیس بوکلینکدین