موارد مهم
- تحقیق جدید نشان می دهد که مردم نمی توانند تصاویر تولید شده با هوش مصنوعی را از تصاویر واقعی جدا کنند.
- شرکت کنندگان تصاویر تولید شده توسط هوش مصنوعی را قابل اعتمادتر ارزیابی کردند.
- کارشناسان معتقدند مردم باید به هر چیزی که در اینترنت می بینند اعتماد نکنند.
ضرب المثل "دیدن یعنی باور کردن" دیگر مربوط به اینترنت نیست و کارشناسان می گویند به این زودی ها بهتر نمی شود.
یک مطالعه اخیر نشان داد که تصاویر چهره های تولید شده توسط هوش مصنوعی (AI) نه تنها بسیار واقعی هستند، بلکه از چهره های واقعی نیز با فضیلت تر به نظر می رسند.
محققان مشاهده کردند "ارزیابی ما از فوتورئالیسم چهره های سنتز شده با هوش مصنوعی نشان می دهد که موتورهای سنتز از دره عجیبی عبور کرده اند و می توانند چهره هایی غیرقابل تشخیص و قابل اعتمادتر از چهره های واقعی ایجاد کنند."
آن شخص وجود ندارد
محققان، دکتر سوفی نایتینگل از دانشگاه لنکستر و پروفسور هانی فرید از دانشگاه کالیفرنیا، برکلی، پس از اذعان به تهدیدات تبلیغاتی عمیق، از انواع کلاهبرداری های آنلاین تا نیروبخش، این آزمایش ها را انجام دادند. کمپین های اطلاعات نادرست.
«شاید خطرناکترین نتیجه این باشد که در دنیای دیجیتالی که در آن هر تصویر یا ویدیویی میتوان جعل کرد، صحت هر گونه ضبط ناخوشایند یا ناخواسته را میتوان زیر سؤال برد.»
آنها استدلال کردند که با وجود پیشرفت در توسعه تکنیک های خودکار برای شناسایی محتوای جعلی عمیق، تکنیک های فعلی به اندازه کافی کارآمد و دقیق نیستند تا بتوانند با جریان ثابت محتوای جدید که به صورت آنلاین آپلود می شوند، همگام باشند.این بدان معناست که این به مصرف کنندگان محتوای آنلاین بستگی دارد که محتوای واقعی را از تقلبی جدا کنند.
Jelle Wieringa، یک مدافع آگاهی امنیتی در KnowBe4، با این موضوع موافق است. او از طریق ایمیل به Lifewire گفت که مبارزه با جعلی های واقعی بدون فناوری تخصصی بسیار سخت است. «[فناوریهای کاهشدهنده] میتواند گران و دشوار باشد برای پیادهسازی در فرآیندهای بلادرنگ، و اغلب فقط پس از این واقعیت، یک دیپفیک شناسایی میشود.»
با این فرض، محققان مجموعهای از آزمایشها را انجام دادند تا تعیین کنند آیا شرکتکنندگان انسانی میتوانند چهرههای سنتز شده پیشرفته را از چهرههای واقعی تشخیص دهند. آنها در آزمایشات خود دریافتند که علیرغم آموزش برای کمک به تشخیص تقلبی ها، میزان دقت تنها به 59% افزایش یافته است، از 48% بدون آموزش.
این باعث شد محققان آزمایش کنند که آیا درک قابل اعتماد بودن می تواند به افراد در شناسایی تصاویر مصنوعی کمک کند یا خیر. در مطالعه سوم، آنها از شرکتکنندگان خواستند که قابلیت اعتماد چهرهها را رتبهبندی کنند، اما متوجه شدند که میانگین امتیاز برای چهرههای مصنوعی ۷ است.7٪ قابل اعتماد تر از میانگین رتبه برای چهره های واقعی. این عدد ممکن است زیاد به نظر نرسد، اما محققان ادعا می کنند که از نظر آماری قابل توجه است.
جعلی عمیقتر
جعلهای عمیق قبلاً یک نگرانی بزرگ بود، و اکنون آبها با این مطالعه گلآلودتر شدهاند، که نشان میدهد چنین تصاویر جعلی با کیفیت بالا میتواند بُعد جدیدی را به کلاهبرداریهای آنلاین اضافه کند، به عنوان مثال، با کمک به ایجاد موارد بیشتر. نمایه های جعلی آنلاین متقاعد کننده.
تنها چیزی که امنیت سایبری را پیش می برد اعتماد مردم به فناوری ها، فرآیندها و افرادی است که سعی در ایمن نگه داشتن آنها دارند. جعلیهای عمیق، بهویژه زمانی که واقعگرایانه میشوند، این اعتماد و در نتیجه پذیرش و پذیرش امنیت سایبری را تضعیف میکنند. این امر میتواند منجر به بیاعتمادی افراد نسبت به هر چیزی شود که درک میکنند.»
کریس هاوک، قهرمان حریم خصوصی مصرف کننده در Pixel Privacy، با این موضوع موافقت کرد. در یک تبادل ایمیل کوتاه، او به Lifewire گفت که جعلی واقعی واقعی میتواند باعث "ویرانی" آنلاین شود، به خصوص این روزها که میتوان با استفاده از فناوری شناسه عکس به انواع حسابها دسترسی داشت.
اقدام اصلاحی
خوشبختانه، گرگ کوهن، مدیر اینترنت اشیا، Prosegur Security، می گوید که فرآیندهایی وجود دارند که می توانند از چنین احراز هویت جعلی جلوگیری کنند. او از طریق ایمیل به Lifewire گفت که سیستمهای اعتبارسنجی مبتنی بر هوش مصنوعی با یک فرد تأیید شده با یک لیست مطابقت دارند، اما بسیاری از آنها محافظهایی برای بررسی «زندگی» دارند.
این نوع سیستم ها می توانند کاربر را به انجام وظایف خاصی مانند لبخند زدن یا چرخاندن سر به چپ و سپس راست نیاز داشته باشند و راهنمایی کنند.
محققان دستورالعمل هایی را برای تنظیم ایجاد و توزیع آنها برای محافظت از مردم در برابر تصاویر مصنوعی پیشنهاد کرده اند. برای شروع، آنها پیشنهاد میکنند که واترمارکهای عمیقاً ریشهدار در خود شبکههای ترکیب تصویر و ویدئو بگنجانید تا اطمینان حاصل شود که تمام رسانههای مصنوعی را میتوان به طور قابل اعتماد شناسایی کرد.
تا آن زمان، پل بیشوف، مدافع حریم خصوصی و ویراستار تحقیقات infosec در Comparitech، میگوید که مردم تنها هستند.بیشوف از طریق ایمیل به Lifewire گفت: «مردم باید یاد بگیرند که به صورت آنلاین اعتماد نکنند، همانطور که همه ما (امیدواریم) یاد گرفتهایم به نامهای نمایش داده شده در ایمیلهایمان اعتماد نکنیم.»