موارد مهم
- نرم افزاری که از هوش مصنوعی برای نمایه کردن افراد استفاده می کند، نگرانی های مربوط به حریم خصوصی را افزایش می دهد.
- کرایف تکنیک های تحلیل رفتاری را با هوش مصنوعی ترکیب می کند.
- شرکت چینی علی بابا اخیراً پس از اینکه گفته شد نرم افزار آن می تواند اویغورها و سایر اقلیت های قومی را شناسایی کند، با انتقاد مواجه شد.
نرم افزار جدید مجهز به هوش مصنوعی که برای کارفرمایان در نظر گرفته شده است تا مشخصات کارکنان خود را نشان دهند، نگرانی های مربوط به حریم خصوصی را افزایش می دهد.
یک پلتفرم نرم افزاری جدید به نام کرایف، تکنیک های تحلیل رفتاری را با هوش مصنوعی ترکیب می کند. توسعهدهنده ادعا میکند که با تجزیه و تحلیل سرنخهای دقیق، این نرمافزار میتواند اهداف افراد را در طول مصاحبه آشکار کند. اما برخی ناظران می گویند که کرایف و انواع دیگر نرم افزارهایی که رفتار را تجزیه و تحلیل می کنند، می توانند به حریم خصوصی نفوذ کنند.
Vaclav Vincale متخصص هوش مصنوعی در یک مصاحبه ایمیلی گفت: "شرکت ها به طور فزاینده ای برای پروفایل به هوش مصنوعی متکی هستند." "اما حتی افرادی که این الگوریتمها را کدگذاری میکنند، حتی کمتر از یک پشتیبان مشتری که از طریق تلفن با آنها تماس میگیرید، نمیتوانند به شما بگویند که چرا توصیههایی را ارائه میکنند."
بیشتر از کلمات
Cryfe توسط یک شرکت سوئیسی ساخته شده است که کارکنان آن توسط FBI در تکنیک های پروفایل آموزش دیده اند. کارولین ماتئوچی، بنیانگذار کرایف، در مصاحبه ای ایمیلی گفت: کرایف در تمام ارتباطات بین فردی، نه تنها به کلمات گوش می دهد، بلکه سیگنال های دیگری را که از انسان ساطع می شود مانند احساسات، عبارات خرد و همه ژست ها شناسایی می کند.
"مثلاً در طول استخدام، این به ما امکان می دهد برویم و شخصیت واقعی همکار خود را جستجو کنیم."
Matteucci گفت که حریم خصوصی کاربران محافظت می شود زیرا شرکت در مورد نحوه عملکرد نرم افزار خود شفاف است. او گفت: «کاربر، قبل از اینکه بتواند از پلتفرم استفاده کند، باید شرایط عمومی را بپذیرد.»
"در آنجا مشخص شده است که کاربر به هیچ وجه نمی تواند مصاحبه ای را برای تجزیه و تحلیل بدون دریافت رضایت کتبی از طرف گفتگو ارسال کند."
Cryfe تنها نرم افزار مجهز به هوش مصنوعی نیست که مدعی تحلیل رفتار انسان است. Humantic نیز وجود دارد که ادعا می کند رفتار مصرف کننده را تجزیه و تحلیل می کند. طبق وبسایت این شرکت، «فناوری راهشکنی Humantic رفتار همه افراد را بدون نیاز به تست شخصیت پیشبینی میکند.»
این شرکت ادعا می کند که از هوش مصنوعی برای ایجاد پروفایل های روانشناختی متقاضیان بر اساس کلماتی که در رزومه، نامه های پوششی، پروفایل های لینکدین و هر متن دیگری که ارسال می کنند استفاده می کند.
نرم افزارهای رفتاری در گذشته با چالش های قانونی مواجه شده اند. در سال 2019، قانون بلومبرگ گزارش داد که کمیسیون فرصت های شغلی برابر (EEOC) موارد تبعیض غیرقانونی ادعایی را به دلیل تصمیمات مرتبط با منابع انسانی به کمک الگوریتم بررسی می کند.
برادفورد نیومن، وکیل دادگستری به بلومبرگ گفت: «همه اینها باید حل شود زیرا آینده استخدام هوش مصنوعی است.»
برخی ناظران با شرکت هایی که از نرم افزار ردیابی رفتار استفاده می کنند مشکل دارند زیرا به اندازه کافی دقیق نیستند. در مصاحبه ای، نایجل دافی، رهبر جهانی هوش مصنوعی در شرکت خدمات حرفه ای EY، به InformationWeek گفت که او با نرم افزاری که از آزمون های رسانه های اجتماعی استفاده می کند و تشخیص را تحت تأثیر قرار می دهد، مشکل دارد.
"من فکر می کنم برخی ادبیات واقعاً قانع کننده در مورد پتانسیل تشخیص عاطفه وجود دارد، اما درک من این است که روشی که اغلب اوقات اجرا می شود نسبتاً ساده لوحانه است."
"مردم استنباط می کنند که علم واقعاً از آن پشتیبانی نمی کند [مثل اینکه] تصمیم بگیرند که فردی یک کارمند بالقوه خوب است، زیرا آنها زیاد لبخند می زنند یا تصمیم می گیرند که کسی محصولات شما را دوست دارد زیرا آنها زیاد می خندند."
گزارش شده است که شرکت های چینی اقلیت ها را نشان می دهند
برخی از گروه های حقوق بشری می گویند ردیابی رفتار می تواند اهداف شوم تری نیز داشته باشد. در چین، علیبابا، غول بازار آنلاین، اخیراً پس از اینکه ادعا کرد نرمافزارش میتواند اویغورها و سایر اقلیتهای قومی را شناسایی کند، سروصدا به پا کرد.
نیویورک تایمز گزارش داد که تجارت رایانش ابری این شرکت دارای نرم افزاری است که تصاویر و ویدیوها را اسکن می کند.
اما حتی انسان هایی که این الگوریتم ها را کدنویسی می کنند…نمی توانند به شما بگویند که چرا توصیه ای ارائه می کنند.
واشنگتن پست همچنین اخیراً گزارش داد که هواوی، یکی دیگر از شرکت های فناوری چینی، نرم افزاری را آزمایش کرده است که می تواند در صورت شناسایی چهره های اویغور توسط دوربین های نظارتی، به مجریان قانون هشدار دهد.
یک درخواست ثبت اختراع 2018 توسط هوآوی ادعا می کند که "شناسایی ویژگی های عابر پیاده بسیار مهم است" در فناوری تشخیص چهره.برنامه گفت: "ویژگی های شی هدف می تواند جنسیت (مرد، زن)، سن (مانند نوجوانان، میانسال، مسن) [یا] نژاد (هان، اویغور) باشد.
سخنگوی هواوی به CNN Business گفت که ویژگی شناسایی قومیت "هیچوقت نباید بخشی از برنامه می شد."
استفاده روبه رشد از هوش مصنوعی برای مرتب سازی مقادیر زیادی از داده ها، نگرانی هایی را در مورد حفظ حریم خصوصی ایجاد می کند. دفعه بعد که برای مصاحبه شغلی می روید، هرگز نمی دانید چه کسی یا چه چیزی شما را تحلیل می کند.