موارد مهم
- گزارش شده است که زوم گفته است که از هوش مصنوعی برای ارزیابی احساسات یا سطح تعامل کاربر استفاده می کند.
- گروه های حقوق بشر از Zoom می خواهند به دلیل نگرانی های مربوط به حفظ حریم خصوصی و امنیت داده ها در طرح خود تجدید نظر کند.
- برخی شرکت ها همچنین از نرم افزارهای تشخیص احساسات در طول مصاحبه برای ارزیابی اینکه آیا کاربر توجه می کند یا خیر استفاده می کنند.
استفاده فزاینده از هوش مصنوعی (AI) برای نظارت بر احساسات انسان نگرانیهایی را در مورد حفظ حریم خصوصی ایجاد میکند.
سازمان های حقوق بشر از زوم می خواهند تا برنامه خود را برای معرفی هوش مصنوعی تجزیه و تحلیل احساسات در نرم افزار کنفرانس ویدئویی خود کند کند. طبق گزارش ها، این شرکت گفته است که از هوش مصنوعی برای ارزیابی احساسات یا سطح تعامل کاربر استفاده خواهد کرد.
کنسرسیوم گروههای حقوق بشر، از جمله ACLU، در نامهای به زوم نوشت: "کارشناسان اذعان دارند که تحلیل احساسات کارساز نیست." "حالات صورت اغلب با احساسات زیرین ارتباط ندارند، و تحقیقات نشان داده است که حتی انسان ها نمی توانند گاهی اوقات احساسات دیگران را به دقت بخوانند یا اندازه گیری کنند. توسعه این ابزار به شبه علم اعتبار می بخشد و شهرت شما را به خطر می اندازد."
Zoom بلافاصله به درخواست Lifewire برای نظر دادن پاسخ نداد.
مراقبت از احساسات خود
طبق مقاله پروتکل، سیستم نظارت زوم به نام Q for Sales نسبت زمان مکالمه کاربران، تأخیر زمان پاسخگویی و تغییرات مکرر بلندگو را بررسی میکند تا میزان درگیر بودن فرد را ردیابی کند. Zoom از این دادهها برای تخصیص نمرات بین صفر تا 100 استفاده میکند و امتیازات بالاتر نشاندهنده مشارکت یا احساسات بالاتر است.
گروه های حقوق بشر ادعا می کنند که این نرم افزار می تواند با این فرض که همه از حالات چهره، الگوهای صدا و زبان بدن یکسان برای برقراری ارتباط استفاده می کنند، علیه افراد دارای معلولیت یا قومیت های خاص تبعیض قائل شود. گروهها همچنین پیشنهاد میکنند که این نرمافزار میتواند خطر امنیت داده باشد.
بر اساس این نامه، "برداشت اطلاعات عمیق شخصی می تواند هر نهادی را که این فناوری را به کار می گیرد، به هدفی برای جاسوسی مقامات دولتی و هکرهای مخرب تبدیل کند".
جولیا استویانوویچ، استاد علوم و مهندسی کامپیوتر در دانشگاه نیویورک، در یک مصاحبه ایمیلی به Lifewire گفت که در مورد ادعاهای پشت تشخیص احساسات تردید دارد.
استویانوویچ گفت: «من نمیدانم که چگونه چنین فناوری میتواند کارساز باشد.اما، شاید مهمتر از آن، نمیدانم چرا ما میخواهیم این ابزارها کار کنند. به عبارت دیگر، اگر آنها خوب کار میکردند، با مشکل بیشتری مواجه میشویم. اما شاید حتی قبل از فکر کردن به خطرات، باید بپرسید مزایای بالقوه چنین فناوری چیست؟"
Zoom تنها شرکتی نیست که از نرم افزار تشخیص احساسات استفاده می کند. تئو ویلز، مدیر ارشد حریم خصوصی در Kuma LLC، یک شرکت مشاوره حفظ حریم خصوصی و امنیت، از طریق ایمیل به Lifewire گفت که نرم افزار برای تشخیص احساسات در طول مصاحبه برای ارزیابی اینکه آیا کاربر توجه می کند یا خیر، استفاده می شود. همچنین در صنعت حمل و نقل برای نظارت بر خواب آلودگی رانندگان، روی پلتفرم های ویدئویی برای سنجش علاقه و سفارشی کردن توصیه ها، و در آموزش های آموزشی برای تعیین اینکه آیا یک روش آموزشی خاص درگیر است یا خیر، اجرا می شود.
ویلز ادعا کرد که بحث و جدل در مورد نرم افزار نظارت بر احساسات بیشتر مربوط به اخلاق داده ها است تا حفظ حریم خصوصی. او گفت این در مورد سیستمی است که تصمیمات دنیای واقعی را بر اساس حدس و گمان می گیرد.
"با این فناوری، شما اکنون دلیل وجود یک حالت خاص در صورتم را فرض می کنید، اما انگیزه پشت یک بیان به دلیل مواردی مانند تربیت اجتماعی یا فرهنگی، رفتارهای خانوادگی، تجربیات گذشته یا عصبی بودن بسیار متفاوت است. در حال حاضر، "ویلز اضافه کرد. "تاسیس کردن الگوریتم بر اساس یک فرض ذاتاً ناقص است و به طور بالقوه تبعیض آمیز است. بسیاری از جمعیت ها در جمعیتی که الگوریتم ها بر اساس آن هستند نشان داده نمی شوند، و قبل از استفاده از آن باید نمایش مناسب اولویت بندی شود."
ملاحظات عملی
مشکلات مطرح شده توسط نرم افزار ردیابی احساسات ممکن است عملی و همچنین نظری باشد. Matt Heisie، یکی از بنیانگذاران Ferret.ai، یک برنامه مبتنی بر هوش مصنوعی که اطلاعات ارتباطی را ارائه می دهد، در ایمیلی به Lifewire گفت که کاربران باید بپرسند که تجزیه و تحلیل چهره ها کجا انجام می شود و چه داده هایی ذخیره می شود. آیا این مطالعه بر روی ضبط تماسها، پردازش در فضای ابری یا در دستگاه محلی انجام میشود؟
همچنین، هیزی پرسید، همانطور که الگوریتم یاد می گیرد، چه داده هایی را در مورد چهره یا حرکات یک فرد جمع آوری می کند که به طور بالقوه می تواند از الگوریتم جدا شده و برای بازسازی بیومتریک شخص استفاده شود؟ آیا شرکت عکسهای فوری را برای تأیید یا تأیید یادگیریهای الگوریتم ذخیره میکند و آیا کاربر از این دادههای مشتق جدید یا تصاویر ذخیرهشده که احتمالاً از تماسهایش جمعآوری میشوند مطلع میشود؟
هیزی گفت: «همه اینها مشکلاتی است که بسیاری از شرکتها آن را حل کردهاند، اما شرکتهایی هم هستند که وقتی معلوم شد این کار را به درستی انجام ندادهاند، رسوایی را درگیر کردهاند. فیسبوک مهمترین مورد شرکتی است که پلتفرم تشخیص چهره خود را به دلیل نگرانی در مورد حفظ حریم خصوصی کاربران عقب انداخته است. شرکت مادر Meta اکنون ویژگیهای AR را از اینستاگرام در برخی از حوزههای قضایی مانند ایلینوی و تگزاس به دلیل قوانین حفظ حریم خصوصی در مورد دادههای بیومتریک حذف میکند.»