موارد مهم
- تویتر امیدوار است آنچه را که کاربران در نرمافزار پیشنمایش تصویر خود تعصب نژادی مینامند، برطرف کند.
- فراخوان غول فناوری ممکن است حساب فرهنگی مورد نیاز صنعت برای رسیدگی به مسائل مربوط به تنوع باشد.
- عدم تنوع فناوری به کارآیی پیشرفتهای فناوری آن آسیب میزند.
تویتر قرار است تحقیقاتی را در مورد الگوریتم برش تصویر خود پس از تبدیل شدن به موضوعی پرطرفدار که باعث گفتگوی بیشتر در مورد موضوعات تنوع در صنعت فناوری شد، آغاز کند.
پس از اینکه کاربران در الگوریتم پیشنمایش تصویر خود تعصب نژادی آشکاری را کشف کردند، این غول پیکر رسانههای اجتماعی به تیتر خبرها تبدیل شد. این کشف پس از آن اتفاق افتاد که کاربر توییتر کالین مدلند از این پلتفرم استفاده کرد تا از شکست زوم در شناسایی همکاران سیاه پوست خود که از فناوری صفحه سبز استفاده می کردند استفاده کند، اما در یک نمایش طنز بزرگ متوجه شد که الگوریتم برش تصویر توییتر رفتاری مشابه دارد و چهره های سیاه پوست را از اولویت خارج می کند.
مطمئناً، این یک مسئله بزرگ برای هر اقلیت است، اما من فکر می کنم یک موضوع بسیار گسترده تر نیز وجود دارد.
کاربران دیگر در این روند قرار گرفتند و یک سری توییتهای ویروسی را ایجاد کردند که نشان میداد الگوریتم به طور مداوم چهرههای سفید و پوست روشنتر را از مردم گرفته تا شخصیتهای کارتونی و حتی سگها را در اولویت قرار میدهد. این شکست نشاندهنده یک حرکت فرهنگی بزرگتر در صنعت فناوری است که به طور مداوم گروههای اقلیت را در نظر نگرفته است که به جنبه فنی نیز سرایت کرده است.
"اریک لرند-میلر، استاد علوم کامپیوتر در دانشگاه، به اقلیت ها احساس وحشتناکی می دهد، مثل اینکه آنها مهم نیستند، و می توان از آن برای چیزهای دیگری استفاده کرد که ممکن است آسیب جدی تری به دنبال داشته باشد." ماساچوست در یک مصاحبه تلفنی گفت."وقتی تصمیم گرفتید که یک نرم افزار می تواند برای چه چیزی استفاده شود و تمام آسیب هایی که ممکن است رخ دهد، ما شروع به صحبت در مورد راه هایی برای به حداقل رساندن احتمال وقوع آن می کنیم."
قناری در جدول زمانی
تویتر از شبکه های عصبی برای برش خودکار تصاویر جاسازی شده در توییت ها استفاده می کند. این الگوریتم قرار است چهرهها را برای پیشنمایش تشخیص دهد، اما به نظر میرسد سوگیری سفید قابل توجهی دارد. سخنگوی شرکت لیز کلی در توییتر پاسخی به همه نگرانیها داد.
کلی در توییتی نوشت: "از همه کسانی که این موضوع را مطرح کردند متشکرم. ما قبل از ارسال مدل، سوگیری را آزمایش کردیم و شواهدی مبنی بر تعصب نژادی یا جنسیتی در آزمایش خود پیدا نکردیم، اما واضح است که ما تجزیه و تحلیل بیشتری برای این موضوع داریم. انجام دهید. ما کار خود را منبع باز می کنیم تا دیگران بتوانند بازبینی و تکرار کنند."
نویسنده مقاله سفید "فناوری های تشخیص چهره در طبیعت: فراخوانی برای یک اداره فدرال"، لرند میلر یک محقق برجسته در زمینه افراط در نرم افزار یادگیری هوش مصنوعی مبتنی بر چهره است.او سالهاست که درباره تأثیر منفی بالقوه نرمافزار یادگیری تصویر بحث میکند و در مورد اهمیت ایجاد واقعیتی که در آن این سوگیریها به بهترین شکل ممکن کاهش داده میشوند، صحبت کرده است.
بسیاری از الگوریتمها برای فناوری تشخیص چهره از مجموعههای مرجع برای دادهها استفاده میکنند که اغلب به عنوان مجموعههای آموزشی شناخته میشوند، که مجموعهای از تصاویر هستند که برای تنظیم دقیق رفتار نرمافزارهای یادگیری تصویر استفاده میشوند. این در نهایت به هوش مصنوعی اجازه می دهد تا به راحتی طیف گسترده ای از چهره ها را تشخیص دهد. با این حال، این مجموعههای مرجع ممکن است فاقد مجموعهای متنوع باشند، که منجر به مشکلاتی مانند مواردی میشود که توسط تیم توییتر تجربه شده است.
"مطمئناً، این یک مسئله بزرگ برای هر اقلیت است، اما من فکر می کنم یک مسئله بسیار گسترده تر نیز وجود دارد." Learned-Miller گفت. "این به فقدان تنوع در بخش فناوری و نیاز به یک نیروی متمرکز و نظارتی برای نشان دادن استفاده صحیح از این نوع نرم افزار قدرتمند در معرض سوء استفاده و سوء استفاده مربوط می شود."
تکنولوژی فاقد تنوع
تویتر ممکن است آخرین شرکت فناوری در بلوک خرد کردن باشد، اما این به دور از یک مشکل جدید است. حوزه فناوری همچنان یک حوزه عمدتاً سفیدپوست و دائماً تحت سلطه مردان است و محققان دریافتهاند که فقدان تنوع باعث تکرار عدم تعادل سیستمیک و تاریخی در نرمافزار توسعهیافته میشود.
در گزارشی در سال ۲۰۱۹ توسط موسسه هوش مصنوعی دانشگاه نیویورک، محققان دریافتند که سیاهپوستان کمتر از ۶ درصد از نیروی کار شرکتهای فناوری برتر در کشور را تشکیل میدهند. به طور مشابه، زنان تنها 26 درصد از کارگران این حوزه را تشکیل می دهند - آماری کمتر از سهم آنها در سال 1960.
باعث می شود اقلیت ها احساس وحشتناکی کنند، مانند اینکه آنها مهم نیستند، و می توان از آن برای چیزهای دیگری استفاده کرد که ممکن است آسیب جدی تری به دنبال داشته باشد.
در ظاهر، این مسائل بازنمایی ممکن است پیش پا افتاده به نظر برسند، اما در عمل، آسیب ناشی از آن می تواند عمیق باشد. محققان در گزارش موسسه AI Now نشان میدهند که این امر به طور علّی به مشکلاتی مربوط میشود که نرمافزار اغلب جمعیتهای غیرسفید و غیرمرد را در نظر نمیگیرد.چه دستگاههای صابون مادون قرمز قادر به تشخیص پوست تیرهتر نباشند یا نرمافزار هوش مصنوعی آمازون در تشخیص چهرههای زن از چهرههای همتایان مرد خود ناکام باشد، ناتوانی در پرداختن به تنوع در صنعت فناوری منجر به شکست فناوری در مقابله با دنیای متنوع میشود.
"افراد زیادی هستند که به این مسائل فکر نکرده اند و واقعاً نمی دانند که چگونه این چیزها می توانند باعث آسیب شوند و این آسیب ها چقدر قابل توجه هستند." Learned-Miller درباره یادگیری تصویر هوش مصنوعی پیشنهاد کرد. "امیدوارم که تعداد افراد در حال کاهش باشد!"