شرکت بایتدنس، مالک تیکتاک یک سیستم هوش مصنوعی جدید ابداع کرده که میتواند عکسهای پرتره ایستا را به تصاویر متحرک مبدل کند و این تصاویر به ورودیهای صوتی واکنش متناسب نشان میدهند.
به نقل از دیکودر، هوش مصنوعی جدید آیانافپی که مخفف عبارت شخصیت عمومی تعاملی، طبیعی و درخشنده است، توانایی ایجاد ویدیوهای گفتگومحور واقعی بین دو نفر بدون نیاز به دخالت انسان یا اختصاص دستی نقشهای گفتاری و شنیداری را هم دارد. سیستم هوش مصنوعی جدید این نقشها را بهطور خودکار و در جریان گفتگو مشخص میکند.
به گزارش سرویس اخبار هوش مصنوعی سایت شات ایکس و به نقل از فارس این سیستم هوش مصنوعی در قالب دو مرحله اصلی عمل می کند. در مرحله اول، که بایت دنس آن را تقلید حرکتی از سر مینامد، هوش مصنوعی یاد میگیرد تا تمام جزئیات کوچک نحوه برقراری ارتباط میان افراد را درک کند که از جمله می توان به مواردی مانند حالات چهره و نحوه حرکت سر اشخاص در طول مکالمه اشاره کرد. هوش مصنوعی این حرکات را از ویدیوهای مختلف دریافت کرده و آنها را به داده هایی تبدیل می کند که بعداً می تواند از آنها استفاده کند. سپس این داده های حرکتی می توانند یک عکس ثابت را متحرک کنند تا با حرکات فرد اصلی مطابقت داشته باشد.
در مرحله دوم، موسوم به تولید حرکت با هدایت صوتی، سیستم نحوه تطبیق صداها با حرکات طبیعی اشخاص را یاد میگیرد. راهنمای حرکت این سیستم هوش مصنوعی با تجزیه و تحلیل صدای هر دو طرف مکالمه، الگوهایی را برای صحبت کردن و گوش دادن ایجاد می کند. سپس، یک جزء ویژه هوش مصنوعی موسوم به متحول کننده انتشار این الگوها را برعهده می گیرد و به تدریج آنها را به حرکات دقیق و واقعی تبدیل می کند که با صدای شخصیت مطابقت دارد.
برای آموزش این سیستم هوش مصنوعی از 200 ساعت فیلم گفتگوی مردم سراسر جهان که از طریق اینترنت جمع آوری شده، استفاده شد. سیستم یادشده در زمینه تطبیق حرکات لب با گفتار، حفظ ویژگیهای منحصر به فرد صورت اشخاص و ایجاد طیف گسترده ای از حرکات طبیعی بسیار خوب عمل می کند.