تعصب نژادی الگوریتم توییتر به مشکل فناوری بزرگتر اشاره می کند

فهرست مطالب:

تعصب نژادی الگوریتم توییتر به مشکل فناوری بزرگتر اشاره می کند
تعصب نژادی الگوریتم توییتر به مشکل فناوری بزرگتر اشاره می کند
Anonim

موارد مهم

  • تویتر امیدوار است آنچه را که کاربران در نرم‌افزار پیش‌نمایش تصویر خود تعصب نژادی می‌نامند، برطرف کند.
  • فراخوان غول فناوری ممکن است حساب فرهنگی مورد نیاز صنعت برای رسیدگی به مسائل مربوط به تنوع باشد.
  • عدم تنوع فناوری به کارآیی پیشرفت‌های فناوری آن آسیب می‌زند.
Image
Image

تویتر قرار است تحقیقاتی را در مورد الگوریتم برش تصویر خود پس از تبدیل شدن به موضوعی پرطرفدار که باعث گفتگوی بیشتر در مورد موضوعات تنوع در صنعت فناوری شد، آغاز کند.

پس از اینکه کاربران در الگوریتم پیش‌نمایش تصویر خود تعصب نژادی آشکاری را کشف کردند، این غول پیکر رسانه‌های اجتماعی به تیتر خبرها تبدیل شد. این کشف پس از آن اتفاق افتاد که کاربر توییتر کالین مدلند از این پلتفرم استفاده کرد تا از شکست زوم در شناسایی همکاران سیاه پوست خود که از فناوری صفحه سبز استفاده می کردند استفاده کند، اما در یک نمایش طنز بزرگ متوجه شد که الگوریتم برش تصویر توییتر رفتاری مشابه دارد و چهره های سیاه پوست را از اولویت خارج می کند.

مطمئناً، این یک مسئله بزرگ برای هر اقلیت است، اما من فکر می کنم یک موضوع بسیار گسترده تر نیز وجود دارد.

کاربران دیگر در این روند قرار گرفتند و یک سری توییت‌های ویروسی را ایجاد کردند که نشان می‌داد الگوریتم به طور مداوم چهره‌های سفید و پوست روشن‌تر را از مردم گرفته تا شخصیت‌های کارتونی و حتی سگ‌ها را در اولویت قرار می‌دهد. این شکست نشان‌دهنده یک حرکت فرهنگی بزرگتر در صنعت فناوری است که به طور مداوم گروه‌های اقلیت را در نظر نگرفته است که به جنبه فنی نیز سرایت کرده است.

"اریک لرند-میلر، استاد علوم کامپیوتر در دانشگاه، به اقلیت ها احساس وحشتناکی می دهد، مثل اینکه آنها مهم نیستند، و می توان از آن برای چیزهای دیگری استفاده کرد که ممکن است آسیب جدی تری به دنبال داشته باشد." ماساچوست در یک مصاحبه تلفنی گفت."وقتی تصمیم گرفتید که یک نرم افزار می تواند برای چه چیزی استفاده شود و تمام آسیب هایی که ممکن است رخ دهد، ما شروع به صحبت در مورد راه هایی برای به حداقل رساندن احتمال وقوع آن می کنیم."

قناری در جدول زمانی

تویتر از شبکه های عصبی برای برش خودکار تصاویر جاسازی شده در توییت ها استفاده می کند. این الگوریتم قرار است چهره‌ها را برای پیش‌نمایش تشخیص دهد، اما به نظر می‌رسد سوگیری سفید قابل توجهی دارد. سخنگوی شرکت لیز کلی در توییتر پاسخی به همه نگرانی‌ها داد.

کلی در توییتی نوشت: "از همه کسانی که این موضوع را مطرح کردند متشکرم. ما قبل از ارسال مدل، سوگیری را آزمایش کردیم و شواهدی مبنی بر تعصب نژادی یا جنسیتی در آزمایش خود پیدا نکردیم، اما واضح است که ما تجزیه و تحلیل بیشتری برای این موضوع داریم. انجام دهید. ما کار خود را منبع باز می کنیم تا دیگران بتوانند بازبینی و تکرار کنند."

نویسنده مقاله سفید "فناوری های تشخیص چهره در طبیعت: فراخوانی برای یک اداره فدرال"، لرند میلر یک محقق برجسته در زمینه افراط در نرم افزار یادگیری هوش مصنوعی مبتنی بر چهره است.او سال‌هاست که درباره تأثیر منفی بالقوه نرم‌افزار یادگیری تصویر بحث می‌کند و در مورد اهمیت ایجاد واقعیتی که در آن این سوگیری‌ها به بهترین شکل ممکن کاهش داده می‌شوند، صحبت کرده است.

بسیاری از الگوریتم‌ها برای فناوری تشخیص چهره از مجموعه‌های مرجع برای داده‌ها استفاده می‌کنند که اغلب به عنوان مجموعه‌های آموزشی شناخته می‌شوند، که مجموعه‌ای از تصاویر هستند که برای تنظیم دقیق رفتار نرم‌افزارهای یادگیری تصویر استفاده می‌شوند. این در نهایت به هوش مصنوعی اجازه می دهد تا به راحتی طیف گسترده ای از چهره ها را تشخیص دهد. با این حال، این مجموعه‌های مرجع ممکن است فاقد مجموعه‌ای متنوع باشند، که منجر به مشکلاتی مانند مواردی می‌شود که توسط تیم توییتر تجربه شده است.

"مطمئناً، این یک مسئله بزرگ برای هر اقلیت است، اما من فکر می کنم یک مسئله بسیار گسترده تر نیز وجود دارد." Learned-Miller گفت. "این به فقدان تنوع در بخش فناوری و نیاز به یک نیروی متمرکز و نظارتی برای نشان دادن استفاده صحیح از این نوع نرم افزار قدرتمند در معرض سوء استفاده و سوء استفاده مربوط می شود."

تکنولوژی فاقد تنوع

تویتر ممکن است آخرین شرکت فناوری در بلوک خرد کردن باشد، اما این به دور از یک مشکل جدید است. حوزه فناوری همچنان یک حوزه عمدتاً سفیدپوست و دائماً تحت سلطه مردان است و محققان دریافته‌اند که فقدان تنوع باعث تکرار عدم تعادل سیستمیک و تاریخی در نرم‌افزار توسعه‌یافته می‌شود.

در گزارشی در سال ۲۰۱۹ توسط موسسه هوش مصنوعی دانشگاه نیویورک، محققان دریافتند که سیاه‌پوستان کمتر از ۶ درصد از نیروی کار شرکت‌های فناوری برتر در کشور را تشکیل می‌دهند. به طور مشابه، زنان تنها 26 درصد از کارگران این حوزه را تشکیل می دهند - آماری کمتر از سهم آنها در سال 1960.

باعث می شود اقلیت ها احساس وحشتناکی کنند، مانند اینکه آنها مهم نیستند، و می توان از آن برای چیزهای دیگری استفاده کرد که ممکن است آسیب جدی تری به دنبال داشته باشد.

در ظاهر، این مسائل بازنمایی ممکن است پیش پا افتاده به نظر برسند، اما در عمل، آسیب ناشی از آن می تواند عمیق باشد. محققان در گزارش موسسه AI Now نشان می‌دهند که این امر به طور علّی به مشکلاتی مربوط می‌شود که نرم‌افزار اغلب جمعیت‌های غیرسفید و غیرمرد را در نظر نمی‌گیرد.چه دستگاه‌های صابون مادون قرمز قادر به تشخیص پوست تیره‌تر نباشند یا نرم‌افزار هوش مصنوعی آمازون در تشخیص چهره‌های زن از چهره‌های همتایان مرد خود ناکام باشد، ناتوانی در پرداختن به تنوع در صنعت فناوری منجر به شکست فناوری در مقابله با دنیای متنوع می‌شود.

"افراد زیادی هستند که به این مسائل فکر نکرده اند و واقعاً نمی دانند که چگونه این چیزها می توانند باعث آسیب شوند و این آسیب ها چقدر قابل توجه هستند." Learned-Miller درباره یادگیری تصویر هوش مصنوعی پیشنهاد کرد. "امیدوارم که تعداد افراد در حال کاهش باشد!"

توصیه شده: