پیش‌بینی جنایت هوش مصنوعی می‌تواند افراد اشتباه را متهم کند

فهرست مطالب:

پیش‌بینی جنایت هوش مصنوعی می‌تواند افراد اشتباه را متهم کند
پیش‌بینی جنایت هوش مصنوعی می‌تواند افراد اشتباه را متهم کند
Anonim

موارد مهم

  • گزارش شده است که یک شرکت نرم افزاری در حال جمع آوری اطلاعات رسانه های اجتماعی برای ایجاد نمایه هایی است که می تواند برای شناسایی افرادی که خطرات امنیتی دارند استفاده شود.
  • آزمایشگاه‌های وویجر قرارداد مهمی با یک آژانس دولتی ژاپن بسته است.
  • اما کارشناسان هشدار می دهند که نرم افزارهای پیش بینی هوش مصنوعی را می توان فریب داد.
Image
Image

اطلاعات آنلاین شما می تواند برای پیش بینی اینکه آیا ممکن است مرتکب جرم شوید استفاده شود.

گزارش شده است که آزمایشگاه‌های Voyager در حال جمع‌آوری اطلاعات رسانه‌های اجتماعی برای ایجاد نمایه‌هایی هستند که می‌توانند برای شناسایی افرادی که خطرات امنیتی دارند استفاده شود.این بخشی از یک تلاش رو به رشد برای استفاده از هوش مصنوعی (AI) برای بررسی مجرمان بالقوه است. اما برخی از کارشناسان می گویند که این جنبش مملو از مشکلات بالقوه است.

متیو کار، محقق امنیتی در گروه Atumcell، در یک مصاحبه ایمیلی به Lifewire گفت: «پیش‌بینی رفتار انسان بسیار سخت است. ما حتی نمی‌توانیم رفتار خودمان را پیش‌بینی کنیم، چه رسد به شخص دیگری."

ایجاد نمایه

همانطور که گاردین اخیرا گزارش کرده است، اداره پلیس لس آنجلس به بررسی استفاده از نرم افزار پیش بینی جنایت وویجر لب پرداخته است. این شرکت همچنین اعلام کرد که قرارداد مهمی با یک آژانس دولتی ژاپن منعقد کرده است.

توافق ژاپنی یک پلت فرم تحقیقاتی مبتنی بر هوش مصنوعی را در اختیار آژانس دولتی قرار می دهد که حجم عظیمی از اطلاعات را از هر منبعی، از جمله داده های باز و عمیق، تجزیه و تحلیل می کند.

دیویا خانگاروت، مدیر عامل APAC در آزمایشگاه های وویجر، در بیانیه خبری گفت: «خوشحالم که در مبارزه با ترور و جنایت با هم همکاری می کنیم. "با استفاده از راه حل های اطلاعاتی پیشرفته Voyager Lab، مشتریان ما قابلیت های منحصر به فردی را برای شناسایی فعالانه و مختل کردن تهدیدات احتمالی به دست می آورند. ما لایه های بیشتری از بینش های تحقیقاتی عمیق را با استفاده از ترکیبی از هوش مصنوعی، یادگیری ماشین و OSINT برای کشف مسیرهای پنهان، اطلاعات نقض شده، به ارمغان می آوریم. و بازیگران بد."

چندان باهوش نیستید؟

اما در یک مصاحبه ایمیلی، Matt Heisie، یکی از بنیانگذاران Ferret.ai، که همچنین از هوش مصنوعی برای پیش بینی مجرمان استفاده می کند، برخی از ادعاهای Voyager Labs را مورد تردید قرار داد.

"آیا ارتباط روشنی بین مثلاً سابقه دستگیری و رفتار مجرمانه آینده وجود دارد، همانطور که یک نقطه سیاه روی آزمایش و ایجاد تومور وجود دارد؟" او گفت. «به تمام موارد سردرگمی بالقوه ای که در آن دستگیری رخ داد فکر کنید - این فرد در چه محله ای زندگی می کرد، کمیت و کیفیت، حتی تعصبات پلیس در آن منطقه.سن، جنسیت، ظاهر فیزیکی افراد، همه اینها تأثیرات متقابلی بر احتمال سابقه دستگیری آن فرد دارند، کاملاً جدا از تمایل واقعی آنها به ارتکاب جرمی که ما می‌خواهیم پیش‌بینی کنیم.».

هیزی گفت:متهمانی که وکلای بهتری دارند به احتمال زیاد می توانند سوابق را از در دسترس قرار گرفتن عمومی سرکوب کنند. برخی از حوزه‌های قضایی انتشار عکس‌ها یا سوابق دستگیری را برای محافظت از متهم محدود می‌کنند.

"کامپیوتر بر اساس داده‌هایی که به آن می‌دهید یاد می‌گیرد و همه سوگیری‌هایی را که در آن مجموعه داده‌ها وجود دارد، در خود جای می‌دهد…"

"همه اینها تعصب بیشتری به الگوریتم ها اضافه می کند." "کامپیوتر بر اساس داده‌هایی که شما به آن می‌دهید یاد می‌گیرد و تمام سوگیری‌هایی را که در مجموعه داده‌ها وجود دارد در یادگیری و تفسیر گنجانده است."

هیزی گفت:تلاش‌های متعددی برای ایجاد هوش مصنوعی پیش‌بینی‌کننده جنایت صورت گرفته است که نتایج اغلب رسواکننده‌ای داشته است.

COMPAS، الگوریتمی که مجری قانون برای پیش‌بینی جرم مجدد از آن استفاده می‌کند، اغلب در تعیین مجازات و وثیقه استفاده می‌شود. این کشور با رسوایی در سال 2016 به دلیل تعصب نژادی مواجه شده است، پیش‌بینی اینکه متهمان سیاه‌پوست در مقایسه با آنها در معرض خطر بیشتری برای تکرار جرم هستند و برای متهمان سفیدپوست برعکس.

بیش از 1000 فن‌آور و محقق، از جمله دانشگاهیان و کارشناسان هوش مصنوعی از هاروارد، MIT، گوگل و مایکروسافت، در سال 2020 علیه مقاله‌ای صحبت کردند که ادعا می‌کرد محققان الگوریتمی را توسعه داده‌اند که می‌تواند جنایت را تنها بر اساس هیزی خاطرنشان کرد که انتشار چنین مطالعاتی سوگیری نژادی از قبل موجود در سیستم عدالت کیفری را تقویت می کند.

Image
Image

هیزی گفت:چین بزرگترین و سریعترین بازار در حال رشد برای این نوع فناوری است، در درجه اول به دلیل دسترسی گسترده به داده های خصوصی، با بیش از 200 میلیون دوربین نظارتی و تحقیقات هوش مصنوعی پیشرفته که برای سالهای متمادی بر این موضوع متمرکز شده اند..سیستم‌هایی مانند CloudWalk's Police Cloud اکنون برای پیش‌بینی و ردیابی مجرمان و تعیین دقیق مجریان قانون استفاده می‌شوند.

هیزی گفت: "با این حال، سوگیری های قابل توجهی نیز در آنجا گزارش شده است."

Heisie اضافه کرد که شرکت او با دقت داده‌هایی را که وارد می‌شوند را بررسی می‌کند و از عکس‌های کالسکه یا سوابق دستگیری استفاده نمی‌کند، "به جای آن بر معیارهای عینی‌تر تمرکز می‌کند."

"هوش مصنوعی ما از داده های انتخاب شده آموخته است، اما مهمتر از آن، از افرادی نیز یاد می گیرد که خودشان سوابق را تجزیه و تحلیل، سرپرستی و ارزیابی می کنند و در مورد تعاملات خود با دیگران به ما می گویند." "ما همچنین شفافیت کامل و دسترسی رایگان و عمومی به برنامه خود را حفظ می کنیم (در سریع ترین زمان که می توانیم آنها را به نسخه بتا اجازه دهیم)، و از بینش در مورد فرآیندها و رویه های خود استقبال می کنیم."

توصیه شده: