Apple در حال توضیح بیشتر در مورد روند مربوط به اقدامات جدید ضد کودک آزاری خود است.
غول فناوری هفته گذشته سیاست جدیدی را اعلام کرد که از فناوری برای شناسایی تصاویر سوء استفاده از کودکان بالقوه در iCloud و Messages استفاده می کند. Verge گزارش می دهد که اپل در روزهای اخیر صفحه پرسش و پاسخی را منتشر کرده است که توضیح می دهد چگونه از این فناوری استفاده می شود و جنبه های حفظ حریم خصوصی پس از ابراز نگرانی مردم در مورد اقدامات جدید چگونه است.
Apple گفت فناوری آن به طور خاص به شناسایی مواد سوء استفاده جنسی از کودکان (CSAM) محدود شده است و نمی توان آن را به ابزار نظارت تبدیل کرد.
«یکی از چالشهای مهم در این فضا، محافظت از کودکان و همچنین حفظ حریم خصوصی کاربران است.» اپل در صفحه جدید پرسشهای متداول نوشت.
"با این فناوری جدید، اپل در مورد عکسهای CSAM شناخته شده که در iCloud Photos ذخیره میشوند، اطلاعاتی را کسب میکند، جایی که حساب مجموعهای از CSAM شناختهشده را ذخیره میکند. اپل چیزی در مورد سایر دادههای ذخیره شده صرفاً در دستگاه نمیآموزد."
این فناوری با اسکن یک تصویر قبل از پشتیبان گیری در iCloud کار می کند. سپس، اگر تصویری با معیارهای CSAM مطابقت داشته باشد، اپل دادههای کوپن رمزنگاری را دریافت میکند.
گروه هایی مانند Electronic Frontier Foundation هفته گذشته نگرانی های خود را در مورد این فناوری ابراز کردند و گفتند که این فناوری می تواند "برای ایجاد پایگاه داده ای از محتوای "تروریستی" که شرکت ها می توانند در آن مشارکت داشته باشند و به منظور ممنوعیت به آن دسترسی داشته باشند، تغییر کاربری داده شود. چنین محتوایی."
یکی از چالش های مهم در این فضا، محافظت از کودکان و همچنین حفظ حریم خصوصی کاربران است.
با این حال، صفحه پرسشهای متداول دقیق اپل با بیان اینکه این فناوری تمام عکسهای ذخیرهشده در دستگاه را اسکن نمیکند، رمزگذاری انتها به انتها در پیامها را خراب نمیکند، برخی از این نگرانیها را برطرف میکند. به دروغ افراد بی گناه را به مجریان قانون معرفی کنید.
The Verge خاطرنشان می کند که سؤالات متداول اپل به نگرانی های مطرح شده در مورد فناوری مورد استفاده برای اسکن پیام ها و اینکه چگونه شرکت اطمینان می دهد که اسکن فقط بر روی CSAM تمرکز دارد، نمی پردازد.