موارد مهم
- نرم افزار محدودیت سنی خودکار یوتیوب باعث نگرانی محتوای LGBTQ+ در این پلت فرم است.
- شرکت با بحث و جدل در مورد شک و تردید سازندگان محتوای LGBTQ+ آسیب دیده است.
- سوگیریها در یادگیری ماشین به این ایده اعتبار میدهد که اجرای ناقص فیلترها احتمالاً به ناعادلانه دسترسی را محدود میکند.
با سابقه هدف قرار دادن غیرمنصفانه سازندگان محتوای LGBTQ+ در فرآیند تعدیل، فناوری جدید مبتنی بر هوش مصنوعی YouTube به عنوان گام بعدی نگرانکننده برای غول فناوری تلقی میشود.
در وبلاگ رسمی YouTube هفته گذشته، پلتفرم اشتراکگذاری ویدیو از برنامهای برای انتشار یک نرمافزار خودکار جدید برای «اجرای مداوم محدودیتهای سنی» در ویدیوهایی که برای بینندگان جوانتر نامناسب تلقی میشوند، رونمایی کرد.
با انگیزه نگرانیهای اخیر در مورد کودکان در برنامه، سیستم جدید مبتنی بر نرمافزار هوش مصنوعی یادگیری ماشینی است که میتواند برای یک فرآیند خودکارتر از ناظران انسانی چشم پوشی کند. موضوع؟ سیستمهای خودکار YouTube متهم شدهاند که محتواها و سازندگان LGBTQ+ را صرفاً به خاطر وجودشان متمایز میکنند.
حتی اگر مخرب نباشد، که فکر نمیکنم باشد، فقدان نظرات صداهای مختلف است - یا حداقل عدم احترام.
"روان الیس" یوتیوبر در یک مصاحبه تلفنی با Lifewire گفت: "یادگیری ماشینی توسط انسان اطلاع داده می شود و توسط انسان ایجاد می شود، و ممکن است این تعصبات ذاتی در آن وجود داشته باشد یا توسط خود ماشین آموخته شود." «سوگیری آن در رابطه با محتوای [LGBTQ+] در تجربیات قبلی یوتیوببرهای [LGBTQ+] مشهود بوده است، و من شواهدی ندیدهام که کاری برای جلوگیری از وقوع آن انجام شده باشد."
عزیزم، حالا ما خون بدی داریم
Ellis یک YouTuber است که محتوای آموزشی را با تمایلات فمینیستی و عجیب و غریب ایجاد می کند و در سال 2017 ویدیویی را در حالت محدود شرکت منتشر کرد. به عنوان یک اقدام اولیه برای تعدیل خودکار محتوا، این حالت به کاربران این امکان را میدهد تا بهصورت اختیاری «محتوای بالقوه بزرگسالان» را از پیشنهادات و توصیههای جستجو پیش نمایش دهند.
با جمع آوری بیش از 100000 بازدید، معتقد است که تلاش آگاهانه ای برای جلوگیری از محدودیت کانالش به دلیل مخالفت صریح او با افراط در گام جدید YouTube به سمت تعدیل صورت گرفته است. دیگر کاربران این پلتفرم چندان خوش شانس نبودند و یوتیوب را به این موضوع آگاه کردند.
در آگوست 2019 یک گروه هشت نفره از خالقان LGBTQ+ که شرکت دره سیلیکون را به محدود کردن تولیدکنندگان و محتواهای ویدئویی عجیب و غریب و ترنس متهم کرده بودند، علیه یوتیوب شکایت دسته جمعی تشکیل شد. این شکایت ادعا میکند که سایت از «تنظیم محتوای غیرقانونی، توزیع و شیوههای کسب درآمد استفاده میکند که به شاکیان LGBT و جامعه LGBT بیشتر انگ، محدود، مسدود، غیرفعال میکند و آسیب مالی میزند. این هنوز هم راه خود را از طریق دادگاه های کالیفرنیا باز می کند.
یادگیری ماشینی توسط انسان ها اطلاع رسانی می شود و توسط انسان ایجاد می شود، و ممکن است این تعصبات ذاتی در آن وجود داشته باشد یا توسط خود ماشین آموخته شود.
در ژوئن همان سال، این پلتفرم پس از خودداری از سرزنش سریع مفسر محافظهکار محبوب، استیون کرودر، به دلیل کمپین آزار و اذیت همجنسگرایانه چند ماهه علیه کارلوس مازا، روزنامهنگار و مجری Vox، سیل توجه رسانهها را به خود جلب کرد. این چیزی که الیس گفت الگویی است با پلتفرم آنلاین نادیده گرفتن چالشهای منحصربهفردی که سازندگان عجیب و غریب با آن روبرو هستند، تثبیت کرد. عدم اعتقاد سازندگان LGBTQ+ به توانایی YouTube برای نشان دادن آنها خالی از لطف نیست.
او گفت: «فکر نمیکنم آنها نیاز به شفافیت در رابطه با مسائل اجتماعی و تضمین برابری را درک کرده باشند. هنوز هم کودکانی در سرتاسر جهان هستند که با این ایده بزرگ شده اند که همجنس گرا بودن اشتباه است، و وقتی شروع به زیر سوال بردن این باور می کنند، اما می بینند که با جستجوی ایمن یا محدود کردن آن بسته شده است، این ایده را تقویت می کند که اشتباه، نامناسب، بالغ، منحرف و کثیف است."
یادگیری خودکار ناموفق
با تاریخچه کثیف خود در مورد تولیدکنندگان محتوای LGBTQ+ در پلتفرم خود، نگرانی در مورد اجرای توانایی نرم افزار یادگیری ماشین برای تشخیص هنجارهای بیشتر همچنان وجود دارد. دان هایدر، مدیر اجرایی مرکز اخلاق کاربردی مارککولا، پیشنهاد میکند که احتمال حماقت برای قمار کردن بسیار خطرناک است.
او در یک مصاحبه ایمیلی نوشت: «به سختی می توان باور کرد که هوش مصنوعی می تواند به طور مؤثر بر محتوای چندین کشور با هنجارها و استانداردهای فرهنگی متفاوت حکومت کند. "هوش مصنوعی اغلب به عنوان پاسخی به سوالات پیچیده در نظر گرفته می شود. در این مرحله، هوش مصنوعی و نحوه ایجاد آن حتی با کارهای ساده نیز مقابله می کند، چه رسد به هرگونه تعدیل محتوا با هر سطح پیچیدگی."
بر اساس وبلاگ خود، YouTube تصمیم گرفت از فناوری هوش مصنوعی استفاده کند، زیرا ناظران انسانی نظارتی بر آن ندارند. افزایش استفاده از فیلترهای رایانهای برای حذف ویدیوهایی که نامناسب به نظر میرسند به یک امر عادی تبدیل شد و اجرای همان رویهها برای سیاستهای محدودیت سنی به عنوان گام بعدی منطقی تلقی میشود.
به عنوان شرکتی که به دنبال بهبود تدریجی فرآیندهای خود پس از انتقادهای طولانی مدت در رابطه با رابطه خود با مصرف کنندگان کودک است، این تصمیم جای تعجب ندارد.
فکر نمی کنم آنها نیاز به شفافیت در مورد مسائل اجتماعی و تضمین برابری را درک کرده باشند.
کودکان به یک جمعیت کلیدی برای سایت اشتراکگذاری ویدیو تبدیل شدهاند. در ماه آگوست، شرکت تجزیه و تحلیل ویدئویی دیجیتال Tubular دریافت که، جدای از موزیک ویدیوها، محتوایی که کودکان را هدف قرار داده است، در صدر فهرست آخر ماه برای ویدیوهای پربازدید در YouTube قرار دارد.
علاقه شرکت به محافظت از این نیروگاه پرسود و نوظهور در پلتفرم منطقی است. با این حال، ابزارهای مورد استفاده برای اجرای این محافظت برای کسانی که قبلاً خود را در پایین دست رویه های تعدیل شرکت دیده اند ناراحت کننده است.
"نگرانی من این است که آسیب زیادی وارد کند و از جوانان [LGBTQ+] محافظت نکند که به محتوای آموزنده، صریح و صادقانه نیاز دارند که ممکن است بسیاری از یوتیوبرهای [LGBTQ+] ارائه کنند، اما در سیستم آن پرچم گذاری می شود. الیس گفت که نامناسب است."حتی اگر مخرب نباشد، که فکر نمیکنم باشد، فقدان نظرات صداهای مختلف است - یا حداقل عدم احترام.
"ما همیشه این را در فناوری می بینیم. وقتی به تشخیص چهره نگاه می کنید که نمی تواند چهره های مختلف سیاه پوست را متمایز کند، یا وقتی به پزشکی نگاه می کنیم و می بینیم که دارو فقط روی یک جنسیت خاص آزمایش شده است. مکالمات بزرگتری هستند و YouTube از آن مستثنی نیست."