کارشناسان می گویند فناوری Deepfake فیس بوک ما را نجات نخواهد داد

فهرست مطالب:

کارشناسان می گویند فناوری Deepfake فیس بوک ما را نجات نخواهد داد
کارشناسان می گویند فناوری Deepfake فیس بوک ما را نجات نخواهد داد
Anonim

موارد مهم

  • همانطور که ساختن دیپ‌فیک آسان‌تر می‌شود، روش‌های جدید و بهبودیافته برای شناسایی آنها در اولویت قرار گرفته‌اند.
  • فناوری تشخیص عمیق فیس بوک از یادگیری ماشینی معکوس برای کشف عمیق بودن یا نبودن یک ویدیو استفاده می کند.
  • کارشناسان می گویند استفاده از فناوری بلاکچین بهترین راه برای مشاهده واقعی یا غیر واقعی بودن یک ویدیو است زیرا این روش بر داده های متنی متکی است.
Image
Image

فیس بوک به مدل یادگیری ماشینی خود برای مبارزه با دیپ فیک اطمینان دارد، اما کارشناسان می گویند یادگیری ماشینی به تنهایی ما را از فریب دیپ فیک نجات نمی دهد.

شرکت‌هایی مانند فیس‌بوک، مایکروسافت، و گوگل همگی برای مبارزه با دیپ‌فیک‌های منتشر شده در وب و شبکه‌های اجتماعی تلاش می‌کنند. در حالی که روش‌ها متفاوت هستند، یک روش بالقوه ضد احمق برای شناسایی این ویدیوهای دروغین وجود دارد: بلاک چین.

"[بلاک چین] فقط به شما پتانسیل زیادی برای اعتبار سنجی دیپ فیک می دهد، به گونه ای که بهترین شکل اعتبارسنجی است که من می توانم ببینم." Science، از طریق تلفن به Lifewire گفت.

فناوری تشخیص عمیق فیس بوک

تکنولوژی Deepfake در چند سال گذشته به سرعت رشد کرده است. ویدیوهای گمراه‌کننده از روش‌های یادگیری ماشینی برای انجام کارهایی مانند قرار دادن صورت شخصی بر روی بدن شخص دیگر، تغییر شرایط پس‌زمینه، همگام‌سازی جعلی لب و موارد دیگر استفاده می‌کنند. آن‌ها از تقلیدهای بی‌ضرر گرفته تا وادار کردن افراد مشهور یا چهره‌های عمومی چیزی را که انجام نداده‌اند بگویند یا انجام دهند.

کارشناسان می گویند که این فناوری به سرعت در حال پیشرفت است و با گسترش گسترده تر و خلاقانه تر شدن فناوری، دیپ فیک ها قانع کننده تر (و ایجاد آسان تر) می شوند.

Image
Image

فیس‌بوک اخیراً با همکاری دانشگاه ایالتی میشیگان، بینش بیشتری در مورد فناوری تشخیص عمیق جعلی خود ارائه کرده است. این شبکه اجتماعی می‌گوید که بر مهندسی معکوس از یک تصویر تولید شده توسط هوش مصنوعی تا مدل تولیدی مورد استفاده برای تولید آن تکیه دارد.

دانشمندان پژوهشی که با فیس بوک کار می کردند، گفتند که این روش بر کشف الگوهای منحصر به فرد پشت مدل هوش مصنوعی که برای تولید یک دیپ جعلی استفاده می شود، متکی است.

«با تعمیم انتساب تصویر به تشخیص مجموعه باز، می‌توانیم اطلاعات بیشتری در مورد مدل تولیدی مورد استفاده برای ایجاد یک دیپ‌فیک استنتاج کنیم که فراتر از تشخیص این است که قبلاً دیده نشده است. شی یین و تان هاسنر، دانشمندان تحقیقاتی در پست وبلاگ فیسبوک در مورد روش تشخیص عمیق آن نوشتند، با ردیابی شباهت‌های بین الگوهای مجموعه‌ای از دیپ‌فیک‌ها، ما همچنین می‌توانیم تشخیص دهیم که آیا مجموعه‌ای از تصاویر از یک منبع منشا گرفته‌اند یا خیر.

Image
Image

Wolfram می گوید منطقی است که از یادگیری ماشینی برای شناسایی یک مدل هوش مصنوعی پیشرفته (یک دیپ جعلی) استفاده کنید. با این حال، همیشه جایی برای فریب دادن فناوری وجود دارد.

«من اصلا تعجب نمی کنم که یک روش یادگیری ماشینی مناسب برای [تشخیص دیپ فیک ها] وجود دارد،» ولفرام گفت. تنها سوال این است که اگر به اندازه کافی تلاش کنید، آیا می توانید آن را فریب دهید؟ من مطمئن هستم که شما می توانید."

مبارزه با دیپ فیک به روشی متفاوت

در عوض، ولفرام گفت که او معتقد است استفاده از بلاک چین بهترین گزینه برای تشخیص دقیق انواع خاصی از دیپ فیک است. نظر او در مورد استفاده از بلاک چین بر یادگیری ماشینی به سال 2019 باز می گردد و او گفت که در نهایت، رویکرد بلاک چین می تواند راه حل دقیق تری برای مشکل دیپ فیک ما ارائه دهد.

ولفرام در مقاله‌ای که در ساینتیفیک امریکن منتشر شده است، نوشت: «من انتظار دارم که بینندگان تصاویر و ویدیوها بتوانند به طور معمول در برابر بلاک‌چین (و «محاسبات مثلث‌سازی داده‌ها») کمی مانند نحوه بررسی گواهی‌های امنیتی مرورگرهای وب بررسی کنند.

از آنجایی که بلاک چین داده ها را در بلوک هایی ذخیره می کند که سپس به ترتیب زمانی به هم متصل می شوند، و از آنجایی که بلاک چین های غیرمتمرکز تغییر ناپذیر هستند، داده های وارد شده برگشت ناپذیر است.

تنها سوال این است که اگر به اندازه کافی تلاش کنید، می توانید آن را فریب دهید؟ من مطمئن هستم که شما می توانید.

Wolfram توضیح داد که با قرار دادن یک ویدیو در یک بلاک چین، می‌توانید زمان ضبط آن، مکان و سایر اطلاعات زمینه‌ای را ببینید که به شما امکان می‌دهد تشخیص دهید که آیا به هر طریقی تغییر کرده است یا خیر.

"به طور کلی، داشتن ابرداده بیشتر که تصویر یا ویدئو را به متن می دهد، احتمال بیشتری وجود دارد که بتوانید بگویید." "شما نمی توانید زمان را روی یک بلاک چین جعل کنید."

با این حال، ولفرام گفت روش استفاده شده - چه یادگیری ماشینی باشد یا از بلاک چین - بستگی به نوع دیپ فیکی دارد که می خواهید در برابر آن محافظت کنید (به عنوان مثال، ویدیویی از کیم کارداشیان که چیزی احمقانه می گوید یا ویدیویی از سیاستمدار بیانیه یا پیشنهادی می دهد).

«رویکرد بلاک چین از انواع خاصی از جعلیات عمیق محافظت می کند، همانطور که پردازش تصویر یادگیری ماشینی در برابر انواع خاصی از جعلیات عمیق محافظت می کند..

به نظر می رسد که نکته اصلی، هوشیاری برای همه ما در مبارزه با سیل عمیق عمیق است.

توصیه شده: