موارد مهم
- کارشناسان می گویند سوگیری الگوریتمی برای نوجوانانی که زمان زیادی را در اینترنت می گذرانند مضر است.
- کاربران توییتر اخیراً با مشکلی مواجه شده اند که در آن صورت سیاهان به نفع سفیدپوستان حذف شده است.
- محققان می گویندمغز در حال رشد نوجوانان ممکن است به ویژه در معرض اثرات مخرب سوگیری الگوریتمی باشد.
تعصب ایجاد شده در برخی از فناوری ها، که به عنوان سوگیری الگوریتمی شناخته می شود، می تواند برای بسیاری از گروه ها مضر باشد، اما کارشناسان می گویند که به ویژه برای نوجوانان مضر است.
سوگیری الگوریتمی، زمانی که سیستم های کامپیوتری نتایج پیش داوری نشان می دهند، یک مشکل رو به رشد است. کاربران توییتر اخیراً نمونهای از سوگیری را در این پلتفرم پیدا کردند، زمانی که یک الگوریتم تشخیص تصویر که عکسها را برش میدهد، چهرههای سیاه را به نفع چهرههای سفید برش میداد. این شرکت بابت این مشکل عذرخواهی کرد، اما هنوز راه حلی برای آن منتشر نکرده است. به گفته کارشناسان، این نمونه ای از تعصبی است که نوجوانان هنگام آنلاین شدن با آن مواجه می شوند، که بیش از هر گروه سنی دیگری انجام می دهند.
"اکثر نوجوانان نمی دانند که شرکت های رسانه های اجتماعی آنها را برای تبلیغ محتوای خاصی که فکر می کنند کاربران دوست دارند [به منظور] ترغیب آنها به ماندن هرچه بیشتر در این پلتفرم، آنها را در اختیار دارند." لی نگوین استیرز، استادیار دانشکده پرستاری در دانشگاه دوکسن که استفاده از رسانه های اجتماعی را در میان نوجوانان/دانشجویان مطالعه می کند، در یک مصاحبه ایمیلی گفت.
"حتی اگر سطحی از آگاهی در مورد الگوریتم وجود داشته باشد، تأثیر عدم دریافت لایک و کامنت کافی همچنان قدرتمند است و می تواند بر عزت نفس نوجوانان تأثیر بگذارد."
در حال رشد مغز
میکائلا پیسانی، دانشمند ارشد داده در Rootstrap، در یک مصاحبه ایمیلی توضیح دادسوگیری الگوریتمی ممکن است نوجوانان را به روش های پیش بینی نشده ای تحت تاثیر قرار دهد، زیرا قشر جلوی مغز آنها هنوز در حال رشد است.
تأثیر عدم دریافت لایک و کامنت کافی همچنان قدرتمند است و می تواند بر عزت نفس نوجوانان تأثیر بگذارد.
پیسانی گفت: «نوجوانان بهویژه در برابر پدیده «کارخانه اجتماعی» آسیبپذیر هستند، جایی که الگوریتمها خوشههای اجتماعی را در پلتفرمهای آنلاین ایجاد میکنند و در صورت برآورده نشدن نیازهای نوجوان به تأیید اجتماعی منجر به اضطراب و افسردگی میشوند. «الگوریتمها بر اساس دادههای ناقص قبلی سادهسازی میشوند که منجر به بازنمایی بیش از حد کلیشهها به قیمت روشهای ظریفتر برای شکلگیری هویت میشود.
"با در نظر گرفتن دیدگاه گسترده تر، ما نیز به عنوان یک جامعه این سوال را داریم که آیا می خواهیم الگوریتم هایی برای شکل دادن به سفر نوجوانان ما به بزرگسالی داشته باشیم، و آیا این سیستم حتی به جای خفه کردن رشد شخصی افراد، حمایت می کند؟"
به گفته کارشناسان، به دلیل این مشکلات، نیاز روزافزونی برای حفظ نوجوانان هنگام طراحی الگوریتمها وجود دارد.
"بر اساس ورودی متخصصان توسعه، دانشمندان داده و حامیان جوانان، سیاست های قرن بیست و یکم در مورد حریم خصوصی داده ها و طراحی الگوریتمی نیز می تواند با در نظر گرفتن نیازهای خاص نوجوانان ایجاد شود." Avriel Epps-Darling، دکترا دانشجوی هاروارد، اخیرا نوشت. "اگر در عوض به کم اهمیت جلوه دادن یا نادیده گرفتن روش های آسیب پذیر بودن نوجوانان در برابر نژادپرستی الگوریتمی ادامه دهیم، این آسیب ها احتمالاً در نسل های آینده بازتاب خواهد یافت."
مبارزه با تعصب
تا زمانی که راه حلی وجود نداشته باشد، برخی از محققان در تلاش هستند تا راه هایی برای کاهش آسیب های وارد شده به جوانان توسط الگوریتم های جانبدارانه بیابند.
استیرز گفت: "مداخلات بر این متمرکز شده است که نوجوانان متوجه شوند الگوهای رسانه های اجتماعی آنها بر سلامت روان آنها تأثیر منفی می گذارد و سعی در ارائه راهبردهایی برای کاهش آن (مثلاً کاهش استفاده از رسانه های اجتماعی) دارد..
او ادامه داد: "برخی از دانشجویانی که ما با آنها مصاحبه کرده ایم نشان داده اند که احساس می کنند مجبورند محتوا تولید کنند تا "مرتبط" باقی بماند، حتی اگر نمی خواهند بیرون بروند یا پست بگذارند. با این حال، آنها احساس میکنند که برای حفظ ارتباط خود با فالوورها یا دوستان خود نیاز به تولید محتوا دارند.»
پاسخ نهایی می تواند حذف تعصب انسان از رایانه ها باشد. اما از آنجایی که برنامه نویسان فقط انسان هستند، به گفته کارشناسان، این یک چالش سخت است.
جان سویت، مدیر ارشد فناوری شرکت روباتیک KODA، میگوید یکی از راهحلهای ممکن توسعه رایانههایی است که غیرمتمرکز و برنامهریزی شده باشند تا چیزهایی را که آموختهاند فراموش کنند.
Suit در یک مصاحبه ایمیلی گفت: از طریق یک شبکه غیرمتمرکز، داده ها و تجزیه و تحلیل آن داده ها از چندین نقطه جمع آوری و تجزیه و تحلیل می شوند. «دادهها نه از روی یک ذهن هوش مصنوعی در محدوده الگوریتم آن، بلکه از صدها یا حتی هزاران مورد جمعآوری و پردازش میشوند.
"هنگامی که این داده ها جمع آوری و تجزیه و تحلیل می شوند، "نتیجه گیری" های قدیمی یا داده های اضافی فراموش می شوند. از طریق این سیستم، الگوریتمی که ممکن است با بایاس شروع شده باشد، در نهایت تصحیح می شود و در صورت اثبات اشتباه، آن سوگیری را جایگزین می کند."
در حالی که سوگیری ممکن است یک مشکل قدیمی باشد، ممکن است راه هایی برای مبارزه با آن وجود داشته باشد، حداقل به صورت آنلاین. طراحی رایانههایی که تعصبات ما را از بین ببرند اولین قدم است.