به هر چیزی که در وب می بینید اعتماد نکنید

فهرست مطالب:

به هر چیزی که در وب می بینید اعتماد نکنید
به هر چیزی که در وب می بینید اعتماد نکنید
Anonim

موارد مهم

  • تحقیق جدید نشان می دهد که مردم نمی توانند تصاویر تولید شده با هوش مصنوعی را از تصاویر واقعی جدا کنند.
  • شرکت کنندگان تصاویر تولید شده توسط هوش مصنوعی را قابل اعتمادتر ارزیابی کردند.
  • کارشناسان معتقدند مردم باید به هر چیزی که در اینترنت می بینند اعتماد نکنند.
Image
Image

ضرب المثل "دیدن یعنی باور کردن" دیگر مربوط به اینترنت نیست و کارشناسان می گویند به این زودی ها بهتر نمی شود.

یک مطالعه اخیر نشان داد که تصاویر چهره های تولید شده توسط هوش مصنوعی (AI) نه تنها بسیار واقعی هستند، بلکه از چهره های واقعی نیز با فضیلت تر به نظر می رسند.

محققان مشاهده کردند "ارزیابی ما از فوتورئالیسم چهره های سنتز شده با هوش مصنوعی نشان می دهد که موتورهای سنتز از دره عجیبی عبور کرده اند و می توانند چهره هایی غیرقابل تشخیص و قابل اعتمادتر از چهره های واقعی ایجاد کنند."

آن شخص وجود ندارد

محققان، دکتر سوفی نایتینگل از دانشگاه لنکستر و پروفسور هانی فرید از دانشگاه کالیفرنیا، برکلی، پس از اذعان به تهدیدات تبلیغاتی عمیق، از انواع کلاهبرداری های آنلاین تا نیروبخش، این آزمایش ها را انجام دادند. کمپین های اطلاعات نادرست.

«شاید خطرناک‌ترین نتیجه این باشد که در دنیای دیجیتالی که در آن هر تصویر یا ویدیویی می‌توان جعل کرد، صحت هر گونه ضبط ناخوشایند یا ناخواسته را می‌توان زیر سؤال برد.»

آنها استدلال کردند که با وجود پیشرفت در توسعه تکنیک های خودکار برای شناسایی محتوای جعلی عمیق، تکنیک های فعلی به اندازه کافی کارآمد و دقیق نیستند تا بتوانند با جریان ثابت محتوای جدید که به صورت آنلاین آپلود می شوند، همگام باشند.این بدان معناست که این به مصرف کنندگان محتوای آنلاین بستگی دارد که محتوای واقعی را از تقلبی جدا کنند.

Jelle Wieringa، یک مدافع آگاهی امنیتی در KnowBe4، با این موضوع موافق است. او از طریق ایمیل به Lifewire گفت که مبارزه با جعلی های واقعی بدون فناوری تخصصی بسیار سخت است. «[فناوری‌های کاهش‌دهنده] می‌تواند گران و دشوار باشد برای پیاده‌سازی در فرآیندهای بلادرنگ، و اغلب فقط پس از این واقعیت، یک دیپ‌فیک شناسایی می‌شود.»

با این فرض، محققان مجموعه‌ای از آزمایش‌ها را انجام دادند تا تعیین کنند آیا شرکت‌کنندگان انسانی می‌توانند چهره‌های سنتز شده پیشرفته را از چهره‌های واقعی تشخیص دهند. آنها در آزمایشات خود دریافتند که علیرغم آموزش برای کمک به تشخیص تقلبی ها، میزان دقت تنها به 59% افزایش یافته است، از 48% بدون آموزش.

این باعث شد محققان آزمایش کنند که آیا درک قابل اعتماد بودن می تواند به افراد در شناسایی تصاویر مصنوعی کمک کند یا خیر. در مطالعه سوم، آن‌ها از شرکت‌کنندگان خواستند که قابلیت اعتماد چهره‌ها را رتبه‌بندی کنند، اما متوجه شدند که میانگین امتیاز برای چهره‌های مصنوعی ۷ است.7٪ قابل اعتماد تر از میانگین رتبه برای چهره های واقعی. این عدد ممکن است زیاد به نظر نرسد، اما محققان ادعا می کنند که از نظر آماری قابل توجه است.

جعلی عمیقتر

جعل‌های عمیق قبلاً یک نگرانی بزرگ بود، و اکنون آب‌ها با این مطالعه گل‌آلودتر شده‌اند، که نشان می‌دهد چنین تصاویر جعلی با کیفیت بالا می‌تواند بُعد جدیدی را به کلاهبرداری‌های آنلاین اضافه کند، به عنوان مثال، با کمک به ایجاد موارد بیشتر. نمایه های جعلی آنلاین متقاعد کننده.

تنها چیزی که امنیت سایبری را پیش می برد اعتماد مردم به فناوری ها، فرآیندها و افرادی است که سعی در ایمن نگه داشتن آنها دارند. جعلی‌های عمیق، به‌ویژه زمانی که واقع‌گرایانه می‌شوند، این اعتماد و در نتیجه پذیرش و پذیرش امنیت سایبری را تضعیف می‌کنند. این امر می‌تواند منجر به بی‌اعتمادی افراد نسبت به هر چیزی شود که درک می‌کنند.»

Image
Image

کریس هاوک، قهرمان حریم خصوصی مصرف کننده در Pixel Privacy، با این موضوع موافقت کرد. در یک تبادل ایمیل کوتاه، او به Lifewire گفت که جعلی واقعی واقعی می‌تواند باعث "ویرانی" آنلاین شود، به خصوص این روزها که می‌توان با استفاده از فناوری شناسه عکس به انواع حساب‌ها دسترسی داشت.

اقدام اصلاحی

خوشبختانه، گرگ کوهن، مدیر اینترنت اشیا، Prosegur Security، می گوید که فرآیندهایی وجود دارند که می توانند از چنین احراز هویت جعلی جلوگیری کنند. او از طریق ایمیل به Lifewire گفت که سیستم‌های اعتبارسنجی مبتنی بر هوش مصنوعی با یک فرد تأیید شده با یک لیست مطابقت دارند، اما بسیاری از آنها محافظ‌هایی برای بررسی «زندگی» دارند.

این نوع سیستم ها می توانند کاربر را به انجام وظایف خاصی مانند لبخند زدن یا چرخاندن سر به چپ و سپس راست نیاز داشته باشند و راهنمایی کنند.

محققان دستورالعمل هایی را برای تنظیم ایجاد و توزیع آنها برای محافظت از مردم در برابر تصاویر مصنوعی پیشنهاد کرده اند. برای شروع، آنها پیشنهاد می‌کنند که واترمارک‌های عمیقاً ریشه‌دار در خود شبکه‌های ترکیب تصویر و ویدئو بگنجانید تا اطمینان حاصل شود که تمام رسانه‌های مصنوعی را می‌توان به طور قابل اعتماد شناسایی کرد.

تا آن زمان، پل بیشوف، مدافع حریم خصوصی و ویراستار تحقیقات infosec در Comparitech، می‌گوید که مردم تنها هستند.بیشوف از طریق ایمیل به Lifewire گفت: «مردم باید یاد بگیرند که به صورت آنلاین اعتماد نکنند، همانطور که همه ما (امیدواریم) یاد گرفته‌ایم به نام‌های نمایش داده شده در ایمیل‌هایمان اعتماد نکنیم.»

توصیه شده: