با مطالعه جدیدی از Podcastle، یک پلت فرم پادکست مبتنی بر هوش مصنوعی ، ۱۰۰۰ آمریکایی را مورد بررسی قرارداد تا نظر آنها را در مورد افراد مشهوری که بیشتر در معرض خطر شبیهسازی صدا هستند، جمعآوری کند.
به گزارش سرویس اخبار سینما سایت شات ایکس و به نقل از همشهری آنلاین نتایج تحقیق پلت فرم پادکست مبتنی بر هوش مصنوعی در مورد شبیهسازی صدای افراد مشهور نشان داد به نظر پاسخدهندگان، آرنولد شوارتزنگر به دلیل داشتن واضحترین صدا برای تکرار و شبیهسازی بیشتر در معرض خطر است.
افراد در معرض خطر
۸۶ درصد از افراد مورد بررسی نیز معتقدند لهجه متمایز و قابل تشخیص فرماندار سابق کالیفرنیا ؛ بیشتر او را در معرض خطر قرار می دهد. پس از شوارتزنگر، دونالد ترامپ، کیم کارداشیان، سیلوستر استالونه و کریستوفر واکن قرار گرفتند.
تقریباً یک نفر از هر چهار گزارش کرده است که لحن و زیروبمی ثابت صدای کارداشیان باعث میشود صدای او راحتتر شبیهسازی شود.
حضور در رسانه
در همین حال، ۳۹ درصد گفتند که صدای ترامپ به دلیل آشنایی با حضور مکرر رسانهها، به راحتی قابل تکرار است. پاسخ دهندگان، ترامپ را بیشتر در معرض خطر می دانستند. البته نظر آنها احتمالاً ناشی از آشفتگی سیاسی بی سابقه در رسانه های مختلف است.
سلبریتی ها و سیاستمداران به طور یکسان بهعنوان رایجترین قربانیان در رسانههای اجتماعی ظاهر شدهاند.
عملکرد دیپفیک
هفته گذشته، ایلان ماسک ویدئویی از نامزد احتمالی دموکرات انتخابات ریاستجمهوری کامالا هریس را برای ایکس پست کرد.
وزارت امنیت داخلی ایالات متحده در گزارشی در سال ۲۰۱۹ آنها را تأیید و ادعا کرد که این خطر ناشی از فناوری نیست؛ بلکه از تمایل طبیعی مردم به باور آنچه می بینند ناشی می شود.
نتایج این گزارش نشان میدهد دیپفیک ها و رسانههای مصنوعی نیازی به باورپذیر بودن ندارند.
درحالیکه از پاسخدهندگان در این مطالعه خواسته نشد در مورد سوءاستفاده احتمالی از فناوری شبیهسازی صدای هوش مصنوعی اظهارنظر کنند، رهبران شرکت ابراز نگرانی کردهاند.
شبیهسازی صدای هوش مصنوعی
آرتاوازد یریتسیان، مدیرعامل پادکاسل به U.S Sun گفت: او بهخوبی از استفاده از فناوری شبیهسازی صدای هوش مصنوعی توسط بازیگران آگاه است.
به عقیده او؛ هر فناوری را بخواهید معرفی کنید، همیشه افرادی هستند که از آن برای موضوعات بد یا مخرب، استفاده میکنند.
کاربران میتوانند صدا را بدون ترک پلتفرم Podcastle ضبط و ویرایش کنند. این شامل استفاده از هوش مصنوعی برای تولید کلمات یا عباراتی است که آنها ضبط نکردهاند.
جایگزینی انسان
یریتسیان میگوید هدف این پلتفرم «خودکار و شبیهسازی» فرآیند تولید بهجای «جایگزینی یک انسان» است و چکهایی را برای جلوگیری از ایجاد دیپفیک های صوتی نیز در نظر گرفته است
بهاینترتیب یک کاربر باید جملات خاصی را ضبط کند تا تأیید کند یک شخص واقعی در حال صحبتکردن است؛ برخلاف کلیپهای مجرمانه سایبری که صدای شخص دیگری را به سیستم منتقل میکند.
به گفته یریتسیان، این محتوا به طور ایمن رمزگذاری میشود تا هیچکس دیگری نتواند به صدای شما دسترسی پیدا کند.
او با تشریح پدیدهای به نام فیشینگ صوتی میگوید: من فکر میکنم بزرگترین تهدیدها دلایل فیشینگ هستند؛ جایی که یک مجرم با استفاده از صدای یکی از اقوام یا دوستانش اطلاعات حساب بانکی خود را درخواست میکند.
فیشینگ صوتی
تنها چیزی که یک مجرم سایبری به آن نیاز دارد چند ثانیه صداست که معمولاً در رسانههای اجتماعی یافت میشود. برای ایجاد یک دیپفیک که سپس برای فریبدادن قربانیان ناآگاه برای تسلیم اطلاعات شخصی خود از طریق تلفن استفاده میشود.
کارشناسان امنیت سایبری از این پدیده بهعنوان « فیشینگ صوتی » یا «ویشینگ» یاد میکنند. دفاع موفق در برابر این شکل از حمله سایبری اضطراری با درک علائم کلاهبرداری شروع میشود.
مجرمان سایبری
مجرمان اغلب از قربانیان خود میخواهند فوراً برای اصلاح اتهامات تقلبی یا تأیید اطلاعات شخصی اقدام کنند؛ بنابراین همیشه باید احتیاط کنید، زیرا ممکن است شناسه تماسگیرنده برای تأیید هویت کافی نباشد.
کارشناسان امنیتی توصیه میکنند در صورت دریافت تماسی که مشکوک به کلاهبرداری است، تماس را قطع کنید و مستقیماً با سازمان یا فرد تماس بگیرید.