چرا نرم افزار خوانش احساسات می تواند حریم خصوصی شما را نقض کند

فهرست مطالب:

چرا نرم افزار خوانش احساسات می تواند حریم خصوصی شما را نقض کند
چرا نرم افزار خوانش احساسات می تواند حریم خصوصی شما را نقض کند
Anonim

موارد مهم

  • گزارش شده است که زوم گفته است که از هوش مصنوعی برای ارزیابی احساسات یا سطح تعامل کاربر استفاده می کند.
  • گروه های حقوق بشر از Zoom می خواهند به دلیل نگرانی های مربوط به حفظ حریم خصوصی و امنیت داده ها در طرح خود تجدید نظر کند.
  • برخی شرکت ها همچنین از نرم افزارهای تشخیص احساسات در طول مصاحبه برای ارزیابی اینکه آیا کاربر توجه می کند یا خیر استفاده می کنند.
Image
Image

استفاده فزاینده از هوش مصنوعی (AI) برای نظارت بر احساسات انسان نگرانی‌هایی را در مورد حفظ حریم خصوصی ایجاد می‌کند.

سازمان های حقوق بشر از زوم می خواهند تا برنامه خود را برای معرفی هوش مصنوعی تجزیه و تحلیل احساسات در نرم افزار کنفرانس ویدئویی خود کند کند. طبق گزارش ها، این شرکت گفته است که از هوش مصنوعی برای ارزیابی احساسات یا سطح تعامل کاربر استفاده خواهد کرد.

کنسرسیوم گروه‌های حقوق بشر، از جمله ACLU، در نامه‌ای به زوم نوشت: "کارشناسان اذعان دارند که تحلیل احساسات کارساز نیست." "حالات صورت اغلب با احساسات زیرین ارتباط ندارند، و تحقیقات نشان داده است که حتی انسان ها نمی توانند گاهی اوقات احساسات دیگران را به دقت بخوانند یا اندازه گیری کنند. توسعه این ابزار به شبه علم اعتبار می بخشد و شهرت شما را به خطر می اندازد."

Zoom بلافاصله به درخواست Lifewire برای نظر دادن پاسخ نداد.

مراقبت از احساسات خود

طبق مقاله پروتکل، سیستم نظارت زوم به نام Q for Sales نسبت زمان مکالمه کاربران، تأخیر زمان پاسخگویی و تغییرات مکرر بلندگو را بررسی می‌کند تا میزان درگیر بودن فرد را ردیابی کند. Zoom از این داده‌ها برای تخصیص نمرات بین صفر تا 100 استفاده می‌کند و امتیازات بالاتر نشان‌دهنده مشارکت یا احساسات بالاتر است.

گروه های حقوق بشر ادعا می کنند که این نرم افزار می تواند با این فرض که همه از حالات چهره، الگوهای صدا و زبان بدن یکسان برای برقراری ارتباط استفاده می کنند، علیه افراد دارای معلولیت یا قومیت های خاص تبعیض قائل شود. گروه‌ها همچنین پیشنهاد می‌کنند که این نرم‌افزار می‌تواند خطر امنیت داده باشد.

Image
Image

بر اساس این نامه، "برداشت اطلاعات عمیق شخصی می تواند هر نهادی را که این فناوری را به کار می گیرد، به هدفی برای جاسوسی مقامات دولتی و هکرهای مخرب تبدیل کند".

جولیا استویانوویچ، استاد علوم و مهندسی کامپیوتر در دانشگاه نیویورک، در یک مصاحبه ایمیلی به Lifewire گفت که در مورد ادعاهای پشت تشخیص احساسات تردید دارد.

استویانوویچ گفت: «من نمی‌دانم که چگونه چنین فناوری می‌تواند کارساز باشد.اما، شاید مهمتر از آن، نمی‌دانم چرا ما می‌خواهیم این ابزارها کار کنند. به عبارت دیگر، اگر آنها خوب کار می‌کردند، با مشکل بیشتری مواجه می‌شویم. اما شاید حتی قبل از فکر کردن به خطرات، باید بپرسید مزایای بالقوه چنین فناوری چیست؟"

Zoom تنها شرکتی نیست که از نرم افزار تشخیص احساسات استفاده می کند. تئو ویلز، مدیر ارشد حریم خصوصی در Kuma LLC، یک شرکت مشاوره حفظ حریم خصوصی و امنیت، از طریق ایمیل به Lifewire گفت که نرم افزار برای تشخیص احساسات در طول مصاحبه برای ارزیابی اینکه آیا کاربر توجه می کند یا خیر، استفاده می شود. همچنین در صنعت حمل و نقل برای نظارت بر خواب آلودگی رانندگان، روی پلتفرم های ویدئویی برای سنجش علاقه و سفارشی کردن توصیه ها، و در آموزش های آموزشی برای تعیین اینکه آیا یک روش آموزشی خاص درگیر است یا خیر، اجرا می شود.

ویلز ادعا کرد که بحث و جدل در مورد نرم افزار نظارت بر احساسات بیشتر مربوط به اخلاق داده ها است تا حفظ حریم خصوصی. او گفت این در مورد سیستمی است که تصمیمات دنیای واقعی را بر اساس حدس و گمان می گیرد.

"با این فناوری، شما اکنون دلیل وجود یک حالت خاص در صورتم را فرض می کنید، اما انگیزه پشت یک بیان به دلیل مواردی مانند تربیت اجتماعی یا فرهنگی، رفتارهای خانوادگی، تجربیات گذشته یا عصبی بودن بسیار متفاوت است. در حال حاضر، "ویلز اضافه کرد. "تاسیس کردن الگوریتم بر اساس یک فرض ذاتاً ناقص است و به طور بالقوه تبعیض آمیز است. بسیاری از جمعیت ها در جمعیتی که الگوریتم ها بر اساس آن هستند نشان داده نمی شوند، و قبل از استفاده از آن باید نمایش مناسب اولویت بندی شود."

ملاحظات عملی

مشکلات مطرح شده توسط نرم افزار ردیابی احساسات ممکن است عملی و همچنین نظری باشد. Matt Heisie، یکی از بنیانگذاران Ferret.ai، یک برنامه مبتنی بر هوش مصنوعی که اطلاعات ارتباطی را ارائه می دهد، در ایمیلی به Lifewire گفت که کاربران باید بپرسند که تجزیه و تحلیل چهره ها کجا انجام می شود و چه داده هایی ذخیره می شود. آیا این مطالعه بر روی ضبط تماس‌ها، پردازش در فضای ابری یا در دستگاه محلی انجام می‌شود؟

همچنین، هیزی پرسید، همانطور که الگوریتم یاد می گیرد، چه داده هایی را در مورد چهره یا حرکات یک فرد جمع آوری می کند که به طور بالقوه می تواند از الگوریتم جدا شده و برای بازسازی بیومتریک شخص استفاده شود؟ آیا شرکت عکس‌های فوری را برای تأیید یا تأیید یادگیری‌های الگوریتم ذخیره می‌کند و آیا کاربر از این داده‌های مشتق جدید یا تصاویر ذخیره‌شده که احتمالاً از تماس‌هایش جمع‌آوری می‌شوند مطلع می‌شود؟

هیزی گفت: «همه اینها مشکلاتی است که بسیاری از شرکت‌ها آن را حل کرده‌اند، اما شرکت‌هایی هم هستند که وقتی معلوم شد این کار را به درستی انجام نداده‌اند، رسوایی را درگیر کرده‌اند. فیس‌بوک مهم‌ترین مورد شرکتی است که پلتفرم تشخیص چهره خود را به دلیل نگرانی در مورد حفظ حریم خصوصی کاربران عقب انداخته است. شرکت مادر Meta اکنون ویژگی‌های AR را از اینستاگرام در برخی از حوزه‌های قضایی مانند ایلینوی و تگزاس به دلیل قوانین حفظ حریم خصوصی در مورد داده‌های بیومتریک حذف می‌کند.»

توصیه شده: