چرا نرم افزار پروفایل جدید نگرانی های حفظ حریم خصوصی را افزایش می دهد

فهرست مطالب:

چرا نرم افزار پروفایل جدید نگرانی های حفظ حریم خصوصی را افزایش می دهد
چرا نرم افزار پروفایل جدید نگرانی های حفظ حریم خصوصی را افزایش می دهد
Anonim

موارد مهم

  • نرم افزاری که از هوش مصنوعی برای نمایه کردن افراد استفاده می کند، نگرانی های مربوط به حریم خصوصی را افزایش می دهد.
  • کرایف تکنیک های تحلیل رفتاری را با هوش مصنوعی ترکیب می کند.
  • شرکت چینی علی بابا اخیراً پس از اینکه گفته شد نرم افزار آن می تواند اویغورها و سایر اقلیت های قومی را شناسایی کند، با انتقاد مواجه شد.
Image
Image

نرم افزار جدید مجهز به هوش مصنوعی که برای کارفرمایان در نظر گرفته شده است تا مشخصات کارکنان خود را نشان دهند، نگرانی های مربوط به حریم خصوصی را افزایش می دهد.

یک پلتفرم نرم افزاری جدید به نام کرایف، تکنیک های تحلیل رفتاری را با هوش مصنوعی ترکیب می کند. توسعه‌دهنده ادعا می‌کند که با تجزیه و تحلیل سرنخ‌های دقیق، این نرم‌افزار می‌تواند اهداف افراد را در طول مصاحبه آشکار کند. اما برخی ناظران می گویند که کرایف و انواع دیگر نرم افزارهایی که رفتار را تجزیه و تحلیل می کنند، می توانند به حریم خصوصی نفوذ کنند.

Vaclav Vincale متخصص هوش مصنوعی در یک مصاحبه ایمیلی گفت: "شرکت ها به طور فزاینده ای برای پروفایل به هوش مصنوعی متکی هستند." "اما حتی افرادی که این الگوریتم‌ها را کدگذاری می‌کنند، حتی کمتر از یک پشتیبان مشتری که از طریق تلفن با آنها تماس می‌گیرید، نمی‌توانند به شما بگویند که چرا توصیه‌هایی را ارائه می‌کنند."

بیشتر از کلمات

Cryfe توسط یک شرکت سوئیسی ساخته شده است که کارکنان آن توسط FBI در تکنیک های پروفایل آموزش دیده اند. کارولین ماتئوچی، بنیانگذار کرایف، در مصاحبه ای ایمیلی گفت: کرایف در تمام ارتباطات بین فردی، نه تنها به کلمات گوش می دهد، بلکه سیگنال های دیگری را که از انسان ساطع می شود مانند احساسات، عبارات خرد و همه ژست ها شناسایی می کند.

"مثلاً در طول استخدام، این به ما امکان می دهد برویم و شخصیت واقعی همکار خود را جستجو کنیم."

Matteucci گفت که حریم خصوصی کاربران محافظت می شود زیرا شرکت در مورد نحوه عملکرد نرم افزار خود شفاف است. او گفت: «کاربر، قبل از اینکه بتواند از پلتفرم استفاده کند، باید شرایط عمومی را بپذیرد.»

"در آنجا مشخص شده است که کاربر به هیچ وجه نمی تواند مصاحبه ای را برای تجزیه و تحلیل بدون دریافت رضایت کتبی از طرف گفتگو ارسال کند."

Cryfe تنها نرم افزار مجهز به هوش مصنوعی نیست که مدعی تحلیل رفتار انسان است. Humantic نیز وجود دارد که ادعا می کند رفتار مصرف کننده را تجزیه و تحلیل می کند. طبق وب‌سایت این شرکت، «فناوری راه‌شکنی Humantic رفتار همه افراد را بدون نیاز به تست شخصیت پیش‌بینی می‌کند.»

Image
Image

این شرکت ادعا می کند که از هوش مصنوعی برای ایجاد پروفایل های روانشناختی متقاضیان بر اساس کلماتی که در رزومه، نامه های پوششی، پروفایل های لینکدین و هر متن دیگری که ارسال می کنند استفاده می کند.

نرم افزارهای رفتاری در گذشته با چالش های قانونی مواجه شده اند. در سال 2019، قانون بلومبرگ گزارش داد که کمیسیون فرصت های شغلی برابر (EEOC) موارد تبعیض غیرقانونی ادعایی را به دلیل تصمیمات مرتبط با منابع انسانی به کمک الگوریتم بررسی می کند.

برادفورد نیومن، وکیل دادگستری به بلومبرگ گفت: «همه اینها باید حل شود زیرا آینده استخدام هوش مصنوعی است.»

برخی ناظران با شرکت هایی که از نرم افزار ردیابی رفتار استفاده می کنند مشکل دارند زیرا به اندازه کافی دقیق نیستند. در مصاحبه ای، نایجل دافی، رهبر جهانی هوش مصنوعی در شرکت خدمات حرفه ای EY، به InformationWeek گفت که او با نرم افزاری که از آزمون های رسانه های اجتماعی استفاده می کند و تشخیص را تحت تأثیر قرار می دهد، مشکل دارد.

"من فکر می کنم برخی ادبیات واقعاً قانع کننده در مورد پتانسیل تشخیص عاطفه وجود دارد، اما درک من این است که روشی که اغلب اوقات اجرا می شود نسبتاً ساده لوحانه است."

"مردم استنباط می کنند که علم واقعاً از آن پشتیبانی نمی کند [مثل اینکه] تصمیم بگیرند که فردی یک کارمند بالقوه خوب است، زیرا آنها زیاد لبخند می زنند یا تصمیم می گیرند که کسی محصولات شما را دوست دارد زیرا آنها زیاد می خندند."

گزارش شده است که شرکت های چینی اقلیت ها را نشان می دهند

برخی از گروه های حقوق بشری می گویند ردیابی رفتار می تواند اهداف شوم تری نیز داشته باشد. در چین، علی‌بابا، غول بازار آنلاین، اخیراً پس از اینکه ادعا کرد نرم‌افزارش می‌تواند اویغورها و سایر اقلیت‌های قومی را شناسایی کند، سروصدا به پا کرد.

نیویورک تایمز گزارش داد که تجارت رایانش ابری این شرکت دارای نرم افزاری است که تصاویر و ویدیوها را اسکن می کند.

اما حتی انسان هایی که این الگوریتم ها را کدنویسی می کنند…نمی توانند به شما بگویند که چرا توصیه ای ارائه می کنند.

واشنگتن پست همچنین اخیراً گزارش داد که هواوی، یکی دیگر از شرکت های فناوری چینی، نرم افزاری را آزمایش کرده است که می تواند در صورت شناسایی چهره های اویغور توسط دوربین های نظارتی، به مجریان قانون هشدار دهد.

یک درخواست ثبت اختراع 2018 توسط هوآوی ادعا می کند که "شناسایی ویژگی های عابر پیاده بسیار مهم است" در فناوری تشخیص چهره.برنامه گفت: "ویژگی های شی هدف می تواند جنسیت (مرد، زن)، سن (مانند نوجوانان، میانسال، مسن) [یا] نژاد (هان، اویغور) باشد.

سخنگوی هواوی به CNN Business گفت که ویژگی شناسایی قومیت "هیچوقت نباید بخشی از برنامه می شد."

استفاده روبه رشد از هوش مصنوعی برای مرتب سازی مقادیر زیادی از داده ها، نگرانی هایی را در مورد حفظ حریم خصوصی ایجاد می کند. دفعه بعد که برای مصاحبه شغلی می روید، هرگز نمی دانید چه کسی یا چه چیزی شما را تحلیل می کند.

توصیه شده: