هوش مصنوعی محدودیت عصر جدید یوتیوب، جامعه LGBTQ+ را نگران می کند

فهرست مطالب:

هوش مصنوعی محدودیت عصر جدید یوتیوب، جامعه LGBTQ+ را نگران می کند
هوش مصنوعی محدودیت عصر جدید یوتیوب، جامعه LGBTQ+ را نگران می کند
Anonim

موارد مهم

  • نرم افزار محدودیت سنی خودکار یوتیوب باعث نگرانی محتوای LGBTQ+ در این پلت فرم است.
  • شرکت با بحث و جدل در مورد شک و تردید سازندگان محتوای LGBTQ+ آسیب دیده است.
  • سوگیری‌ها در یادگیری ماشین به این ایده اعتبار می‌دهد که اجرای ناقص فیلترها احتمالاً به ناعادلانه دسترسی را محدود می‌کند.
Image
Image

با سابقه هدف قرار دادن غیرمنصفانه سازندگان محتوای LGBTQ+ در فرآیند تعدیل، فناوری جدید مبتنی بر هوش مصنوعی YouTube به عنوان گام بعدی نگران‌کننده برای غول فناوری تلقی می‌شود.

در وبلاگ رسمی YouTube هفته گذشته، پلتفرم اشتراک‌گذاری ویدیو از برنامه‌ای برای انتشار یک نرم‌افزار خودکار جدید برای «اجرای مداوم محدودیت‌های سنی» در ویدیوهایی که برای بینندگان جوان‌تر نامناسب تلقی می‌شوند، رونمایی کرد.

با انگیزه نگرانی‌های اخیر در مورد کودکان در برنامه، سیستم جدید مبتنی بر نرم‌افزار هوش مصنوعی یادگیری ماشینی است که می‌تواند برای یک فرآیند خودکارتر از ناظران انسانی چشم پوشی کند. موضوع؟ سیستم‌های خودکار YouTube متهم شده‌اند که محتواها و سازندگان LGBTQ+ را صرفاً به خاطر وجودشان متمایز می‌کنند.

حتی اگر مخرب نباشد، که فکر نمی‌کنم باشد، فقدان نظرات صداهای مختلف است - یا حداقل عدم احترام.

"روان الیس" یوتیوبر در یک مصاحبه تلفنی با Lifewire گفت: "یادگیری ماشینی توسط انسان اطلاع داده می شود و توسط انسان ایجاد می شود، و ممکن است این تعصبات ذاتی در آن وجود داشته باشد یا توسط خود ماشین آموخته شود." «سوگیری آن در رابطه با محتوای [LGBTQ+] در تجربیات قبلی یوتیوب‌برهای [LGBTQ+] مشهود بوده است، و من شواهدی ندیده‌ام که کاری برای جلوگیری از وقوع آن انجام شده باشد."

عزیزم، حالا ما خون بدی داریم

Ellis یک YouTuber است که محتوای آموزشی را با تمایلات فمینیستی و عجیب و غریب ایجاد می کند و در سال 2017 ویدیویی را در حالت محدود شرکت منتشر کرد. به عنوان یک اقدام اولیه برای تعدیل خودکار محتوا، این حالت به کاربران این امکان را می‌دهد تا به‌صورت اختیاری «محتوای بالقوه بزرگسالان» را از پیشنهادات و توصیه‌های جستجو پیش نمایش دهند.

با جمع آوری بیش از 100000 بازدید، معتقد است که تلاش آگاهانه ای برای جلوگیری از محدودیت کانالش به دلیل مخالفت صریح او با افراط در گام جدید YouTube به سمت تعدیل صورت گرفته است. دیگر کاربران این پلتفرم چندان خوش شانس نبودند و یوتیوب را به این موضوع آگاه کردند.

در آگوست 2019 یک گروه هشت نفره از خالقان LGBTQ+ که شرکت دره سیلیکون را به محدود کردن تولیدکنندگان و محتواهای ویدئویی عجیب و غریب و ترنس متهم کرده بودند، علیه یوتیوب شکایت دسته جمعی تشکیل شد. این شکایت ادعا می‌کند که سایت از «تنظیم محتوای غیرقانونی، توزیع و شیوه‌های کسب درآمد استفاده می‌کند که به شاکیان LGBT و جامعه LGBT بیشتر انگ، محدود، مسدود، غیرفعال می‌کند و آسیب مالی می‌زند. این هنوز هم راه خود را از طریق دادگاه های کالیفرنیا باز می کند.

یادگیری ماشینی توسط انسان ها اطلاع رسانی می شود و توسط انسان ایجاد می شود، و ممکن است این تعصبات ذاتی در آن وجود داشته باشد یا توسط خود ماشین آموخته شود.

در ژوئن همان سال، این پلتفرم پس از خودداری از سرزنش سریع مفسر محافظه‌کار محبوب، استیون کرودر، به دلیل کمپین آزار و اذیت همجنس‌گرایانه چند ماهه علیه کارلوس مازا، روزنامه‌نگار و مجری Vox، سیل توجه رسانه‌ها را به خود جلب کرد. این چیزی که الیس گفت الگویی است با پلتفرم آنلاین نادیده گرفتن چالش‌های منحصربه‌فردی که سازندگان عجیب و غریب با آن روبرو هستند، تثبیت کرد. عدم اعتقاد سازندگان LGBTQ+ به توانایی YouTube برای نشان دادن آنها خالی از لطف نیست.

او گفت: «فکر نمی‌کنم آنها نیاز به شفافیت در رابطه با مسائل اجتماعی و تضمین برابری را درک کرده باشند. هنوز هم کودکانی در سرتاسر جهان هستند که با این ایده بزرگ شده اند که همجنس گرا بودن اشتباه است، و وقتی شروع به زیر سوال بردن این باور می کنند، اما می بینند که با جستجوی ایمن یا محدود کردن آن بسته شده است، این ایده را تقویت می کند که اشتباه، نامناسب، بالغ، منحرف و کثیف است."

یادگیری خودکار ناموفق

با تاریخچه کثیف خود در مورد تولیدکنندگان محتوای LGBTQ+ در پلتفرم خود، نگرانی در مورد اجرای توانایی نرم افزار یادگیری ماشین برای تشخیص هنجارهای بیشتر همچنان وجود دارد. دان هایدر، مدیر اجرایی مرکز اخلاق کاربردی مارککولا، پیشنهاد می‌کند که احتمال حماقت برای قمار کردن بسیار خطرناک است.

او در یک مصاحبه ایمیلی نوشت: «به سختی می توان باور کرد که هوش مصنوعی می تواند به طور مؤثر بر محتوای چندین کشور با هنجارها و استانداردهای فرهنگی متفاوت حکومت کند. "هوش مصنوعی اغلب به عنوان پاسخی به سوالات پیچیده در نظر گرفته می شود. در این مرحله، هوش مصنوعی و نحوه ایجاد آن حتی با کارهای ساده نیز مقابله می کند، چه رسد به هرگونه تعدیل محتوا با هر سطح پیچیدگی."

بر اساس وبلاگ خود، YouTube تصمیم گرفت از فناوری هوش مصنوعی استفاده کند، زیرا ناظران انسانی نظارتی بر آن ندارند. افزایش استفاده از فیلترهای رایانه‌ای برای حذف ویدیوهایی که نامناسب به نظر می‌رسند به یک امر عادی تبدیل شد و اجرای همان رویه‌ها برای سیاست‌های محدودیت سنی به عنوان گام بعدی منطقی تلقی می‌شود.

به عنوان شرکتی که به دنبال بهبود تدریجی فرآیندهای خود پس از انتقادهای طولانی مدت در رابطه با رابطه خود با مصرف کنندگان کودک است، این تصمیم جای تعجب ندارد.

فکر نمی کنم آنها نیاز به شفافیت در مورد مسائل اجتماعی و تضمین برابری را درک کرده باشند.

کودکان به یک جمعیت کلیدی برای سایت اشتراک‌گذاری ویدیو تبدیل شده‌اند. در ماه آگوست، شرکت تجزیه و تحلیل ویدئویی دیجیتال Tubular دریافت که، جدای از موزیک ویدیوها، محتوایی که کودکان را هدف قرار داده است، در صدر فهرست آخر ماه برای ویدیوهای پربازدید در YouTube قرار دارد.

علاقه شرکت به محافظت از این نیروگاه پرسود و نوظهور در پلتفرم منطقی است. با این حال، ابزارهای مورد استفاده برای اجرای این محافظت برای کسانی که قبلاً خود را در پایین دست رویه های تعدیل شرکت دیده اند ناراحت کننده است.

"نگرانی من این است که آسیب زیادی وارد کند و از جوانان [LGBTQ+] محافظت نکند که به محتوای آموزنده، صریح و صادقانه نیاز دارند که ممکن است بسیاری از یوتیوبرهای [LGBTQ+] ارائه کنند، اما در سیستم آن پرچم گذاری می شود. الیس گفت که نامناسب است."حتی اگر مخرب نباشد، که فکر نمی‌کنم باشد، فقدان نظرات صداهای مختلف است - یا حداقل عدم احترام.

"ما همیشه این را در فناوری می بینیم. وقتی به تشخیص چهره نگاه می کنید که نمی تواند چهره های مختلف سیاه پوست را متمایز کند، یا وقتی به پزشکی نگاه می کنیم و می بینیم که دارو فقط روی یک جنسیت خاص آزمایش شده است. مکالمات بزرگتری هستند و YouTube از آن مستثنی نیست."