موارد مهم
- محققان یک سیستم هوش مصنوعی ایجاد کرده اند که به منظور شناسایی و پرچم گذاری اخبار جعلی است.
- این مدل مجموعه داده های عمومی از اخبار جعلی را بررسی می کند، به کاربران هشدار می دهد و آنها را به منابع اطلاعاتی تأیید شده هدایت می کند.
-
تعداد فزاینده ای از روش های هوش مصنوعی برای مقابله با اخبار نادرست آنلاین وجود دارد.
کارشناسان می گویند هوش مصنوعی (AI) به مهار گسترش سریع اطلاعات نادرست آنلاین کمک می کند.
محققان یک سیستم هوش مصنوعی ایجاد کرده اند که به منظور شناسایی و پرچم گذاری اخبار جعلی است. این مدل یک مجموعه داده عمومی از اخبار ساختگی را بررسی می کند، به کاربران هشدار می دهد و آنها را به منابع اطلاعاتی تأیید شده هدایت می کند. این بخشی از تعداد رو به رشد روشهای هوش مصنوعی برای مقابله با اخبار نادرست است.
"وائل عبدالمجید، استاد مهندسی کامپیوتر در دانشگاه کالیفرنیای جنوبی، که توسعه داده است، "میزان اطلاعاتی که در اینترنت، به ویژه شبکههای اجتماعی در جریان است، بسیار زیاد است و نمیتوان آن را به صورت دستی، به ویژه با دقت بالا مدیریت کرد. الگوریتمهای هوش مصنوعی برای تشخیص اطلاعات نادرست بصری، در مصاحبهای ایمیلی به Lifewire گفته شد.
"نظارت و علامت گذاری اطلاعات نادرست در زمان واقعی بسیار مهم است، زیرا هنگامی که اطلاعات نادرست شروع به انتشار می کند، متقاعد کردن مردم مبنی بر نادرست بودن اطلاعات دشوار است، به خصوص زمانی که اطلاعات نادرست سوگیری های ما را تایید می کند.".
واقعیت نگه داشتن
تکنیک هوش مصنوعی توسعه یافته توسط تیمی در دانشگاه مک کواری استرالیا می تواند به کاهش انتشار اخبار جعلی کمک کند. این مدل را میتوان در یک برنامه یا نرمافزار وب گنجاند و پیوندهایی به اطلاعات «واقعی» مرتبط ارائه میدهد که با علایق هر کاربر همسو است.
«وقتی اخبار آنلاین می خوانید یا تماشا می کنید، اغلب داستان های خبری درباره رویدادها یا موضوعات مشابه با استفاده از یک مدل توصیه به شما پیشنهاد می شود. انتشار خبری.
وانگ میگوید که اخبار دقیق و اخبار جعلی برای یک رویداد اغلب از سبکهای محتوای متفاوتی استفاده میکنند و مدلهای رایانهای را گیج میکنند تا آنها را بهعنوان اخبار رویدادهای مختلف تلقی کنند.
مدل دانشگاه مککواری اطلاعات هر خبر را به دو بخش "تفکیک" می کند: علائمی که جعلی بودن خبر را نشان می دهد و اطلاعات ویژه رویدادی که موضوع یا رویدادی را که خبر مربوط به آن است را نشان می دهد. سپس این مدل به دنبال الگوهایی در نحوه جابجایی کاربران بین اخبار مختلف میگردد تا پیشبینی کند که کاربر ممکن است به خواندن کدام رویداد خبری بعدی علاقه داشته باشد.
تیم تحقیقاتی این مدل را بر روی مجموعه داده عمومی از اخبار جعلی منتشر شده در GitHub به نام FakeNewsNet آموزش دادند که اخبار جعلی PolitiFact و GossipCop را همراه با داده هایی مانند محتوای اخبار، زمینه اجتماعی و تاریخچه خواندن کاربران ذخیره می کند.
رشد اخبار جعلی
اخبار جعلی یک مشکل رو به رشد است، مطالعات نشان می دهد. NewsGuard دریافته است که بخش قابل توجهی از رشد رسانههای اجتماعی از وبسایتهای غیرقابل اعتماد بوده است.در سال 2020، 17 درصد تعامل در میان 100 منبع خبری برتر از سایتهای دارای رتبه قرمز (به طور کلی غیرقابل اعتماد) بود، در مقایسه با تقریباً 8 درصد در سال 2019.
Subramaniam Vincent، مدیر روزنامه نگاری و اخلاق رسانه ای در مرکز اخلاق کاربردی Markkula در دانشگاه سانتا کلارا، در یک مصاحبه ایمیلی به Lifewire گفت که هوش مصنوعی می تواند به مقابله با اطلاعات نادرست کمک کند.
وینسنت توضیح داد: این فناوری را می توان برای "نظارت بر رفتار حساب برای اشتراکگذاری سازمانیافته مرتبط با سخنان مشوق عداوت و تنفر یا ادعاهای قبلاً رد شده یا افشای آن توسط حقیقتبینها یا نهادهای دولتی تبلیغگر معروف یا گروههای نوپا با افزایش سریع عضویت استفاده کرد." "هوش مصنوعی همچنین میتواند همراه با طراحی برای پرچمگذاری محتوای انواع خاص برای افزایش اصطکاک قبل از اشتراکگذاری استفاده شود."
AbdAlmageed گفت که شبکه های اجتماعی باید الگوریتم های تشخیص اخبار جعلی را به عنوان بخشی از الگوریتم های توصیه خود ادغام کنند. او گفت که هدف این است که «اگر نمیخواهند به طور کامل از اشتراکگذاری اخبار جعلی جلوگیری کنند، اخبار جعلی را جعلی یا نادرست معرفی کنند.»
وینسنت گفت، در حالی که هوش مصنوعی ممکن است برای مقابله با اخبار جعلی مفید باشد، اما این رویکرد دارای جنبههای منفی است. مشکل این است که سیستمهای هوش مصنوعی نمیتوانند معنای گفتار و نوشتار انسان را درک کنند، بنابراین همیشه پشت منحنی خواهند بود.
"وینسنت گفت:"وینسنت گفت: "هرچه هوش مصنوعی با برخی از اشکال سخنان مشوق نفرت و اطلاعات نادرست دقیق تر باشد، فرهنگ انسانی بیشتر به سمت کدهای جدیدتر و انتقال معنای زیرزمینی برای سازماندهی خواهد رفت."
واسیم خالد، مدیر عامل شرکت نظارت بر اطلاعات نادرست Blackbird. AI، در ایمیلی به Lifewire گفت که اطلاعات نادرست آنلاین یک تهدید در حال تکامل است. سیستمهای جدید هوش مصنوعی باید بتوانند پیشبینی کنند که اخبار جعلی کجا ظاهر میشوند.
خالد گفت: «در بیشتر موارد، شما نمی توانید یک محصول هوش مصنوعی بسازید و آن را تمام شده بنامید. «الگوهای رفتاری در طول زمان تغییر میکنند، و مهم است که مدلهای هوش مصنوعی شما با این تغییرات هماهنگی داشته باشند.»