هوش مصنوعی می تواند کلیدی برای جلوگیری از انتشار اخبار جعلی باشد

فهرست مطالب:

هوش مصنوعی می تواند کلیدی برای جلوگیری از انتشار اخبار جعلی باشد
هوش مصنوعی می تواند کلیدی برای جلوگیری از انتشار اخبار جعلی باشد
Anonim

موارد مهم

  • محققان یک سیستم هوش مصنوعی ایجاد کرده اند که به منظور شناسایی و پرچم گذاری اخبار جعلی است.
  • این مدل مجموعه داده های عمومی از اخبار جعلی را بررسی می کند، به کاربران هشدار می دهد و آنها را به منابع اطلاعاتی تأیید شده هدایت می کند.
  • تعداد فزاینده ای از روش های هوش مصنوعی برای مقابله با اخبار نادرست آنلاین وجود دارد.

Image
Image

کارشناسان می گویند هوش مصنوعی (AI) به مهار گسترش سریع اطلاعات نادرست آنلاین کمک می کند.

محققان یک سیستم هوش مصنوعی ایجاد کرده اند که به منظور شناسایی و پرچم گذاری اخبار جعلی است. این مدل یک مجموعه داده عمومی از اخبار ساختگی را بررسی می کند، به کاربران هشدار می دهد و آنها را به منابع اطلاعاتی تأیید شده هدایت می کند. این بخشی از تعداد رو به رشد روش‌های هوش مصنوعی برای مقابله با اخبار نادرست است.

"وائل عبدالمجید، استاد مهندسی کامپیوتر در دانشگاه کالیفرنیای جنوبی، که توسعه داده است، "میزان اطلاعاتی که در اینترنت، به ویژه شبکه‌های اجتماعی در جریان است، بسیار زیاد است و نمی‌توان آن را به صورت دستی، به ویژه با دقت بالا مدیریت کرد. الگوریتم‌های هوش مصنوعی برای تشخیص اطلاعات نادرست بصری، در مصاحبه‌ای ایمیلی به Lifewire گفته شد.

"نظارت و علامت گذاری اطلاعات نادرست در زمان واقعی بسیار مهم است، زیرا هنگامی که اطلاعات نادرست شروع به انتشار می کند، متقاعد کردن مردم مبنی بر نادرست بودن اطلاعات دشوار است، به خصوص زمانی که اطلاعات نادرست سوگیری های ما را تایید می کند.".

واقعیت نگه داشتن

تکنیک هوش مصنوعی توسعه یافته توسط تیمی در دانشگاه مک کواری استرالیا می تواند به کاهش انتشار اخبار جعلی کمک کند. این مدل را می‌توان در یک برنامه یا نرم‌افزار وب گنجاند و پیوندهایی به اطلاعات «واقعی» مرتبط ارائه می‌دهد که با علایق هر کاربر همسو است.

«وقتی اخبار آنلاین می خوانید یا تماشا می کنید، اغلب داستان های خبری درباره رویدادها یا موضوعات مشابه با استفاده از یک مدل توصیه به شما پیشنهاد می شود. انتشار خبری.

وانگ می‌گوید که اخبار دقیق و اخبار جعلی برای یک رویداد اغلب از سبک‌های محتوای متفاوتی استفاده می‌کنند و مدل‌های رایانه‌ای را گیج می‌کنند تا آنها را به‌عنوان اخبار رویدادهای مختلف تلقی کنند.

مدل دانشگاه مککواری اطلاعات هر خبر را به دو بخش "تفکیک" می کند: علائمی که جعلی بودن خبر را نشان می دهد و اطلاعات ویژه رویدادی که موضوع یا رویدادی را که خبر مربوط به آن است را نشان می دهد. سپس این مدل به دنبال الگوهایی در نحوه جابجایی کاربران بین اخبار مختلف می‌گردد تا پیش‌بینی کند که کاربر ممکن است به خواندن کدام رویداد خبری بعدی علاقه داشته باشد.

تیم تحقیقاتی این مدل را بر روی مجموعه داده عمومی از اخبار جعلی منتشر شده در GitHub به نام FakeNewsNet آموزش دادند که اخبار جعلی PolitiFact و GossipCop را همراه با داده هایی مانند محتوای اخبار، زمینه اجتماعی و تاریخچه خواندن کاربران ذخیره می کند.

رشد اخبار جعلی

اخبار جعلی یک مشکل رو به رشد است، مطالعات نشان می دهد. NewsGuard دریافته است که بخش قابل توجهی از رشد رسانه‌های اجتماعی از وب‌سایت‌های غیرقابل اعتماد بوده است.در سال 2020، 17 درصد تعامل در میان 100 منبع خبری برتر از سایت‌های دارای رتبه قرمز (به طور کلی غیرقابل اعتماد) بود، در مقایسه با تقریباً 8 درصد در سال 2019.

Subramaniam Vincent، مدیر روزنامه نگاری و اخلاق رسانه ای در مرکز اخلاق کاربردی Markkula در دانشگاه سانتا کلارا، در یک مصاحبه ایمیلی به Lifewire گفت که هوش مصنوعی می تواند به مقابله با اطلاعات نادرست کمک کند.

وینسنت توضیح داد: این فناوری را می توان برای "نظارت بر رفتار حساب برای اشتراک‌گذاری سازمان‌یافته مرتبط با سخنان مشوق عداوت و تنفر یا ادعاهای قبلاً رد شده یا افشای آن توسط حقیقت‌بین‌ها یا نهادهای دولتی تبلیغ‌گر معروف یا گروه‌های نوپا با افزایش سریع عضویت استفاده کرد." "هوش مصنوعی همچنین می‌تواند همراه با طراحی برای پرچم‌گذاری محتوای انواع خاص برای افزایش اصطکاک قبل از اشتراک‌گذاری استفاده شود."

Image
Image

AbdAlmageed گفت که شبکه های اجتماعی باید الگوریتم های تشخیص اخبار جعلی را به عنوان بخشی از الگوریتم های توصیه خود ادغام کنند. او گفت که هدف این است که «اگر نمی‌خواهند به طور کامل از اشتراک‌گذاری اخبار جعلی جلوگیری کنند، اخبار جعلی را جعلی یا نادرست معرفی کنند.»

وینسنت گفت، در حالی که هوش مصنوعی ممکن است برای مقابله با اخبار جعلی مفید باشد، اما این رویکرد دارای جنبه‌های منفی است. مشکل این است که سیستم‌های هوش مصنوعی نمی‌توانند معنای گفتار و نوشتار انسان را درک کنند، بنابراین همیشه پشت منحنی خواهند بود.

"وینسنت گفت:"وینسنت گفت: "هرچه هوش مصنوعی با برخی از اشکال سخنان مشوق نفرت و اطلاعات نادرست دقیق تر باشد، فرهنگ انسانی بیشتر به سمت کدهای جدیدتر و انتقال معنای زیرزمینی برای سازماندهی خواهد رفت."

واسیم خالد، مدیر عامل شرکت نظارت بر اطلاعات نادرست Blackbird. AI، در ایمیلی به Lifewire گفت که اطلاعات نادرست آنلاین یک تهدید در حال تکامل است. سیستم‌های جدید هوش مصنوعی باید بتوانند پیش‌بینی کنند که اخبار جعلی کجا ظاهر می‌شوند.

خالد گفت: «در بیشتر موارد، شما نمی توانید یک محصول هوش مصنوعی بسازید و آن را تمام شده بنامید. «الگوهای رفتاری در طول زمان تغییر می‌کنند، و مهم است که مدل‌های هوش مصنوعی شما با این تغییرات هماهنگی داشته باشند.»

توصیه شده: