جعل ویدیوها آسان است، نوستالژی عمیق را نشان می دهد

فهرست مطالب:

جعل ویدیوها آسان است، نوستالژی عمیق را نشان می دهد
جعل ویدیوها آسان است، نوستالژی عمیق را نشان می دهد
Anonim

موارد مهم

  • Deep Nostalgia یک برنامه جدید است که به شما امکان می دهد عکس های قدیمی را متحرک کنید.
  • فناوری نشان می دهد که چقدر آسان است که از افرادی که کارهایی را انجام می دهند که در زندگی واقعی انجام نداده اند ویدیوهایی ایجاد کنید.
  • یک کارشناس می‌گوید فناوری جعلی عمیق در حال حاضر آنقدر پیچیده است که تشخیص واقعی بودن یا تولید رایانه‌ای یک ویدیو دشوار است.
Image
Image

مراقب نرم افزارهای جدیدی باشید که می توانند به اصطلاح "جعلی عمیق" ایجاد کنند، که در آن فیلم های افراد واقعی شبیه سازی می شود، کارشناسان هشدار می دهند.

نوستالژی عمیق که توسط شرکت MyHeritage منتشر شده است، در رسانه های اجتماعی پرطرفدار است و کاربران همه را از آهنگسازان معروف گرفته تا بستگان مرده زنده می کنند. این نرم‌افزار واکنش‌های متفاوتی را به دنبال دارد، به طوری که برخی از مردم از این خلاقیت‌ها خوشحال می‌شوند و برخی دیگر آنها را وحشتناک می‌دانند. این فناوری نشان می‌دهد که ساختن ویدیوهایی از افرادی که کارهایی را انجام می‌دهند که واقعاً در زندگی واقعی انجام نداده‌اند چقدر آسان است.

آرون لاوسون، دستیار مدیر آزمایشگاه فناوری گفتار و تحقیقات بین المللی SRI (STAR) در یک مصاحبه ایمیلی گفت: "فناوری Deepfake پیچیده تر و خطرناک تر می شود." "این تا حدودی به دلیل ماهیت هوش مصنوعی است. در جایی که فناوری "سنتی" برای بهبود نیاز به زمان و انرژی انسان دارد، هوش مصنوعی می تواند از خود بیاموزد.

لاوسون ادامه داد: "اما توانایی هوش مصنوعی برای توسعه خود یک شمشیر دو لبه است." "اگر یک هوش مصنوعی برای انجام کاری خیرخواهانه ایجاد شده باشد، عالی است. اما وقتی یک هوش مصنوعی برای چیزهای مخربی مانند تقلبی عمیق طراحی شده باشد، خطر بی سابقه است."

نرم افزار عکس ها را زنده می کند

وب سایت Genealogy MyHeritage ماه گذشته موتور انیمیشن را معرفی کرد. این فناوری که به عنوان Deep Nostalgia شناخته می‌شود، به کاربران اجازه می‌دهد عکس‌ها را از طریق وب‌سایت MyHeritage متحرک کنند. شرکتی به نام D-ID الگوریتم هایی را برای MyHeritage طراحی کرد که به صورت دیجیتالی حرکت چهره انسان ها را بازسازی می کند. طبق وب‌سایت MyHeritage، این نرم‌افزار حرکات را روی عکس‌ها اعمال می‌کند و حالات صورت را طوری تغییر می‌دهد که معمولاً چهره‌های انسان انجام می‌دهند.

لیور شامیر، استاد علوم کامپیوتر در دانشگاه ایالتی کانزاس، در یک مصاحبه ایمیلی گفت: نوستالژی عمیق نشان می دهد که فناوری عمیق جعلی در حال دسترسی بیشتر است. این به سرعت در حال پیشرفت است و حتی تفاوت‌های ظریف بین ویدیو و صدای جعلی و واقعی را از بین می‌برد.

"همچنین پیشرفت قابل توجهی به سمت جعلی عمیق در زمان واقعی صورت گرفته است، به این معنی که ویدیوهای جعلی عمیق قانع کننده در زمان ارتباط ویدیویی تولید می شوند.""به عنوان مثال، می توان با یک شخص خاص جلسه زوم داشت، در حالی که صدای یک شخص کاملاً متفاوت را دید و شنید."

جیسون کورسو، مدیر مؤسسه هوش مصنوعی استیونز در مؤسسه فناوری استیونز، در یک مصاحبه ایمیلی گفت: همچنین تعداد فزاینده‌ای از جعلی‌های عمیق مبتنی بر زبان وجود دارد. او افزود: «تولید پاراگراف‌های کامل متن جعلی عمیق به سمت یک دستور کار خاص بسیار دشوار است، اما پیشرفت‌های مدرن در پردازش عمیق زبان طبیعی این امکان را فراهم می‌کند.»

چگونه یک جعلی عمیق را تشخیص دهیم

در حالی که فناوری تشخیص عمیق جعلی هنوز در مرحله نوپایی است، چند راه وجود دارد که می توانید یکی از آنها را تشخیص دهید، که از دهان شروع می شود.

"تغییر شکل ظاهری داخل دهان زمانی که فردی در حال صحبت کردن است بسیار زیاد است، و متقاعد کردن آن را دشوار می کند." "این کار می تواند انجام شود، اما از بقیه قسمت های سر سخت تر است.توجه داشته باشید که چگونه ویدیوهای Deep Nostalgia توانایی این عکس را برای گفتن "دوستت دارم" یا عبارت دیگری در طول ساخت عمیق جعلی نشان نمی دهند. انجام این کار مستلزم باز و بسته شدن دهان است، که برای نسل های جعلی عمیق بسیار دشوار است."

کورسو افزود Ghosting یک هدیه دیگر است. اگر در اطراف لبه‌های سر تاری می‌بینید، این نتیجه «حرکت سریع یا پیکسل‌های محدود موجود در تصویر منبع است. یک گوش می‌تواند به‌طور لحظه‌ای ناپدید شود، یا ممکن است مو در جایی که انتظارش را ندارید تار شود». گفت.

همچنین می‌توانید هنگام تلاش برای مشاهده یک ویدیوی جعلی عمیق، مانند خطوط واضح در سراسر صورت، با رنگ‌های تیره‌تر در یک طرف و روشن‌تر در طرف دیگر، مراقب تنوع رنگ باشید.

«الگوریتم های رایانه ای اغلب می توانند این الگوهای اعوجاج را تشخیص دهند. "اما الگوریتم‌های جعلی عمیق به سرعت در حال پیشرفت هستند. این امر اجتناب‌ناپذیر است که قوانین سخت‌گیرانه‌ای برای محافظت از جعلی‌های عمیق و آسیب‌هایی که به راحتی می‌توانند ایجاد کنند مورد نیاز باشد."

توصیه شده: