هوش مصنوعی در نهایت می تواند به سرکوب سخنان نفرت انگیز کمک کند

فهرست مطالب:

هوش مصنوعی در نهایت می تواند به سرکوب سخنان نفرت انگیز کمک کند
هوش مصنوعی در نهایت می تواند به سرکوب سخنان نفرت انگیز کمک کند
Anonim

موارد مهم

  • یک ابزار نرم افزاری جدید به هوش مصنوعی اجازه می دهد تا نظرات اینترنتی را از نظر سخنان مشوق عداوت و تنفر نظارت کند.
  • هوش مصنوعی برای تعدیل محتوای اینترنتی به دلیل حجم عظیم مطالبی که از توانایی های انسان پیشی می گیرد، مورد نیاز است.
  • اما برخی کارشناسان می گویند که نظارت هوش مصنوعی بر گفتار نگرانی هایی را در مورد حفظ حریم خصوصی ایجاد می کند.
Image
Image

با افزایش سخنان نفرت پراکنی آنلاین، یک شرکت می گوید ممکن است راه حلی داشته باشد که به ناظران انسانی متکی نباشد.

استارتاپی به نام Spectrum Labs فناوری هوش مصنوعی را در اختیار ارائه دهندگان پلتفرم قرار می دهد تا تبادلات سمی را در زمان واقعی شناسایی و تعطیل کنند. اما کارشناسان می گویند که نظارت بر هوش مصنوعی مشکلات حریم خصوصی را نیز ایجاد می کند.

دیوید مودی، یکی از همکاران ارشد Schellman، یک شرکت ارزیابی امنیت و رعایت حریم خصوصی، در مصاحبه ایمیلی به Lifewire گفت: "نظارت هوش مصنوعی اغلب مستلزم بررسی الگوها در طول زمان است، که حفظ داده ها را ضروری می کند." "این داده ها ممکن است شامل داده هایی باشد که قوانین به عنوان داده های حریم خصوصی (اطلاعات شناسایی شخصی یا PII) پرچم گذاری کرده اند."

سخنان نفرت بیشتر

آزمایشگاه‌های طیف نوید یک راه‌حل با فناوری پیشرفته برای مشکل دیرینه سخنان نفرت را می‌دهد.

"به طور متوسط، ما به پلتفرم ها کمک می کنیم تا ۵۰٪ تلاش های تعدیل محتوا را کاهش دهند و تشخیص رفتارهای سمی را تا ۱۰ برابر افزایش دهند،" این شرکت در وب سایت خود ادعا می کند.

Spectrum می گوید با مؤسسات تحقیقاتی متخصص در رفتارهای مضر خاص برای ساخت بیش از 40 مدل شناسایی رفتار کار کرده است. پلتفرم تعدیل محتوای Guardian این شرکت توسط تیمی از دانشمندان داده و ناظران برای "حمایت از محافظت از جوامع در برابر سمیت" ساخته شده است."

نیاز فزاینده ای به روش هایی برای مبارزه با سخنان مشوق عداوت و تنفر وجود دارد، زیرا برای انسان غیرممکن است که بر هر قسمت از ترافیک آنلاین نظارت کند، دیلن فاکس، مدیر عامل AssemblyAI، استارتاپی که تشخیص گفتار را ارائه می دهد و مشتریانی دارد که در نظارت بر نفرت مشارکت دارند. سخنرانی، در یک مصاحبه ایمیلی به Lifewire گفت.

«حدود 500 میلیون توییت در روز فقط در توییتر وجود دارد. حتی اگر یک نفر بتواند هر 10 ثانیه یک توییت را بررسی کند، توییتر برای انجام این کار باید 60 هزار نفر را استخدام کند. در عوض، ما از ابزارهای هوشمندی مانند هوش مصنوعی برای خودکار کردن فرآیند استفاده می‌کنیم.»

فاکس گفت: برخلاف انسان، هوش مصنوعی می‌تواند 24 ساعته کار کند و به طور بالقوه عادلانه‌تر عمل کند، زیرا به گونه‌ای طراحی شده است که قوانین خود را به طور یکنواخت برای همه کاربران بدون دخالت در اعتقادات شخصی اعمال کند. همچنین برای افرادی که مجبور به نظارت و تعدیل محتوا هستند، هزینه دارد.

"آنها می توانند در معرض خشونت، نفرت، و اعمال زشت قرار گیرند، که می تواند به سلامت روان فرد آسیب برساند."

Spectrum تنها شرکتی نیست که به دنبال تشخیص خودکار سخنان نفرت‌انگیز آنلاین است. به عنوان مثال، مرکز مالزی اخیراً یک ردیاب آنلاین راه‌اندازی کرده است که برای یافتن سخنان مشوق عداوت و تنفر در میان شهروندان مالزیایی طراحی شده است. نرم افزاری که آنها توسعه دادند به نام Tracker Benci از یادگیری ماشینی برای تشخیص سخنان مشوق عداوت و تنفر آنلاین، به ویژه در توییتر استفاده می کند.

چالش این است که چگونه فضاهایی ایجاد کنیم که در آن افراد بتوانند واقعاً با یکدیگر تعامل سازنده داشته باشند.

نگرانی حریم خصوصی

در حالی که راه‌حل‌های فناوری مانند Spectrum ممکن است با سخنان نفرت‌انگیز آنلاین مبارزه کنند، همچنین سؤالاتی را در مورد میزان پلیسی که رایانه‌ها باید انجام دهند ایجاد می‌کنند.

ایرینا رایکو، مدیر اخلاق اینترنتی در مرکز اخلاق کاربردی مارکولا در دانشگاه سانتا کلارا، در ایمیلی به Lifewire گفت:پیامدهای آزادی بیان وجود دارد، اما نه فقط برای سخنرانانی که پست‌هایشان به عنوان سخنان نفرت‌انگیز حذف می‌شود. مصاحبه.

«اجازه دادن به آزار و اذیت به نام «آزادی بیان» باعث شده است که اهداف چنین سخنانی (مخصوصاً زمانی که افراد خاصی را هدف قرار می دهند) از صحبت کردن خودداری کنند و مکالمات و تریبون های مختلف را به طور کامل کنار بگذارند."چالش این است که چگونه فضاهایی ایجاد کنیم که در آن افراد بتوانند واقعاً با یکدیگر تعامل سازنده داشته باشند."

فاکس گفت، اگر شرکت‌ها از اطلاعات در دسترس عموم در حین نظارت استفاده می‌کنند، نظارت بر گفتار هوش مصنوعی نباید باعث ایجاد مشکلات حریم خصوصی شود. با این حال، اگر شرکت جزئیات نحوه تعامل کاربران در سایر پلتفرم‌ها را بخرد تا از قبل کاربران مشکل‌ساز را شناسایی کند، این می‌تواند نگرانی‌هایی در مورد حفظ حریم خصوصی ایجاد کند.

«بسته به کاربرد قطعاً می تواند کمی خاکستری باشد.»

Image
Image

جاستین دیویس، مدیر عامل آزمایشگاه Spectrum در ایمیلی به Lifewire گفت که فناوری این شرکت می تواند 2 تا 5 هزار ردیف داده را در کسری از ثانیه بررسی کند. او گفت: «مهمتر از همه، فناوری می‌تواند میزان محتوای سمی که تعدیل‌کنندگان انسان در معرض آن قرار می‌گیرند را کاهش دهد.»

ممکن است در آستانه انقلابی در نظارت بر گفتار و متن انسان به صورت آنلاین توسط هوش مصنوعی باشیم. مودی گفت که پیشرفت‌های آینده شامل قابلیت‌های نظارت مستقل و مستقل بهتر برای شناسایی اشکال ناشناخته قبلی سخنان مشوق نفرت یا هر الگوی قابل سانسور دیگری است که تکامل خواهد یافت.

هوش مصنوعی همچنین به زودی قادر خواهد بود الگوها را در الگوهای گفتاری خاص تشخیص دهد و منابع و سایر فعالیت های آنها را از طریق تجزیه و تحلیل اخبار، پرونده های عمومی، تجزیه و تحلیل الگوی ترافیک، نظارت فیزیکی و بسیاری از گزینه های دیگر مرتبط کند.

اما برخی از کارشناسان می گویند که انسان ها همیشه باید با رایانه کار کنند تا سخنان نفرت انگیز را زیر نظر بگیرند.

رایکو گفت: "هوش مصنوعی به تنهایی کار نمی کند." "این باید به عنوان یک ابزار ناقص شناخته شود که باید در ارتباط با پاسخ های دیگر استفاده شود."

تصحیح 1/25/2022: نقل قول از جاستین دیویس در پاراگراف پنجم از پایان اضافه شد تا ایمیل پس از انتشار را منعکس کند.

توصیه شده: