موارد مهم
- گزارش شده است که یک شرکت نرم افزاری در حال جمع آوری اطلاعات رسانه های اجتماعی برای ایجاد نمایه هایی است که می تواند برای شناسایی افرادی که خطرات امنیتی دارند استفاده شود.
- آزمایشگاههای وویجر قرارداد مهمی با یک آژانس دولتی ژاپن بسته است.
- اما کارشناسان هشدار می دهند که نرم افزارهای پیش بینی هوش مصنوعی را می توان فریب داد.
اطلاعات آنلاین شما می تواند برای پیش بینی اینکه آیا ممکن است مرتکب جرم شوید استفاده شود.
گزارش شده است که آزمایشگاههای Voyager در حال جمعآوری اطلاعات رسانههای اجتماعی برای ایجاد نمایههایی هستند که میتوانند برای شناسایی افرادی که خطرات امنیتی دارند استفاده شود.این بخشی از یک تلاش رو به رشد برای استفاده از هوش مصنوعی (AI) برای بررسی مجرمان بالقوه است. اما برخی از کارشناسان می گویند که این جنبش مملو از مشکلات بالقوه است.
متیو کار، محقق امنیتی در گروه Atumcell، در یک مصاحبه ایمیلی به Lifewire گفت: «پیشبینی رفتار انسان بسیار سخت است. ما حتی نمیتوانیم رفتار خودمان را پیشبینی کنیم، چه رسد به شخص دیگری."
ایجاد نمایه
همانطور که گاردین اخیرا گزارش کرده است، اداره پلیس لس آنجلس به بررسی استفاده از نرم افزار پیش بینی جنایت وویجر لب پرداخته است. این شرکت همچنین اعلام کرد که قرارداد مهمی با یک آژانس دولتی ژاپن منعقد کرده است.
توافق ژاپنی یک پلت فرم تحقیقاتی مبتنی بر هوش مصنوعی را در اختیار آژانس دولتی قرار می دهد که حجم عظیمی از اطلاعات را از هر منبعی، از جمله داده های باز و عمیق، تجزیه و تحلیل می کند.
دیویا خانگاروت، مدیر عامل APAC در آزمایشگاه های وویجر، در بیانیه خبری گفت: «خوشحالم که در مبارزه با ترور و جنایت با هم همکاری می کنیم. "با استفاده از راه حل های اطلاعاتی پیشرفته Voyager Lab، مشتریان ما قابلیت های منحصر به فردی را برای شناسایی فعالانه و مختل کردن تهدیدات احتمالی به دست می آورند. ما لایه های بیشتری از بینش های تحقیقاتی عمیق را با استفاده از ترکیبی از هوش مصنوعی، یادگیری ماشین و OSINT برای کشف مسیرهای پنهان، اطلاعات نقض شده، به ارمغان می آوریم. و بازیگران بد."
چندان باهوش نیستید؟
اما در یک مصاحبه ایمیلی، Matt Heisie، یکی از بنیانگذاران Ferret.ai، که همچنین از هوش مصنوعی برای پیش بینی مجرمان استفاده می کند، برخی از ادعاهای Voyager Labs را مورد تردید قرار داد.
"آیا ارتباط روشنی بین مثلاً سابقه دستگیری و رفتار مجرمانه آینده وجود دارد، همانطور که یک نقطه سیاه روی آزمایش و ایجاد تومور وجود دارد؟" او گفت. «به تمام موارد سردرگمی بالقوه ای که در آن دستگیری رخ داد فکر کنید - این فرد در چه محله ای زندگی می کرد، کمیت و کیفیت، حتی تعصبات پلیس در آن منطقه.سن، جنسیت، ظاهر فیزیکی افراد، همه اینها تأثیرات متقابلی بر احتمال سابقه دستگیری آن فرد دارند، کاملاً جدا از تمایل واقعی آنها به ارتکاب جرمی که ما میخواهیم پیشبینی کنیم.».
هیزی گفت:متهمانی که وکلای بهتری دارند به احتمال زیاد می توانند سوابق را از در دسترس قرار گرفتن عمومی سرکوب کنند. برخی از حوزههای قضایی انتشار عکسها یا سوابق دستگیری را برای محافظت از متهم محدود میکنند.
"کامپیوتر بر اساس دادههایی که به آن میدهید یاد میگیرد و همه سوگیریهایی را که در آن مجموعه دادهها وجود دارد، در خود جای میدهد…"
"همه اینها تعصب بیشتری به الگوریتم ها اضافه می کند." "کامپیوتر بر اساس دادههایی که شما به آن میدهید یاد میگیرد و تمام سوگیریهایی را که در مجموعه دادهها وجود دارد در یادگیری و تفسیر گنجانده است."
هیزی گفت:تلاشهای متعددی برای ایجاد هوش مصنوعی پیشبینیکننده جنایت صورت گرفته است که نتایج اغلب رسواکنندهای داشته است.
COMPAS، الگوریتمی که مجری قانون برای پیشبینی جرم مجدد از آن استفاده میکند، اغلب در تعیین مجازات و وثیقه استفاده میشود. این کشور با رسوایی در سال 2016 به دلیل تعصب نژادی مواجه شده است، پیشبینی اینکه متهمان سیاهپوست در مقایسه با آنها در معرض خطر بیشتری برای تکرار جرم هستند و برای متهمان سفیدپوست برعکس.
بیش از 1000 فنآور و محقق، از جمله دانشگاهیان و کارشناسان هوش مصنوعی از هاروارد، MIT، گوگل و مایکروسافت، در سال 2020 علیه مقالهای صحبت کردند که ادعا میکرد محققان الگوریتمی را توسعه دادهاند که میتواند جنایت را تنها بر اساس هیزی خاطرنشان کرد که انتشار چنین مطالعاتی سوگیری نژادی از قبل موجود در سیستم عدالت کیفری را تقویت می کند.
هیزی گفت:چین بزرگترین و سریعترین بازار در حال رشد برای این نوع فناوری است، در درجه اول به دلیل دسترسی گسترده به داده های خصوصی، با بیش از 200 میلیون دوربین نظارتی و تحقیقات هوش مصنوعی پیشرفته که برای سالهای متمادی بر این موضوع متمرکز شده اند..سیستمهایی مانند CloudWalk's Police Cloud اکنون برای پیشبینی و ردیابی مجرمان و تعیین دقیق مجریان قانون استفاده میشوند.
هیزی گفت: "با این حال، سوگیری های قابل توجهی نیز در آنجا گزارش شده است."
Heisie اضافه کرد که شرکت او با دقت دادههایی را که وارد میشوند را بررسی میکند و از عکسهای کالسکه یا سوابق دستگیری استفاده نمیکند، "به جای آن بر معیارهای عینیتر تمرکز میکند."
"هوش مصنوعی ما از داده های انتخاب شده آموخته است، اما مهمتر از آن، از افرادی نیز یاد می گیرد که خودشان سوابق را تجزیه و تحلیل، سرپرستی و ارزیابی می کنند و در مورد تعاملات خود با دیگران به ما می گویند." "ما همچنین شفافیت کامل و دسترسی رایگان و عمومی به برنامه خود را حفظ می کنیم (در سریع ترین زمان که می توانیم آنها را به نسخه بتا اجازه دهیم)، و از بینش در مورد فرآیندها و رویه های خود استقبال می کنیم."