Apple فناوری ضد کودک آزاری را به تاخیر می اندازد

Apple فناوری ضد کودک آزاری را به تاخیر می اندازد
Apple فناوری ضد کودک آزاری را به تاخیر می اندازد
Anonim

پس از مخالفت های زیادی از سوی منتقدان و کاربران، اپل اقدامات ضد کودک آزاری خود را به تعویق می اندازد.

در ماه آگوست، غول فناوری در ابتدا سیاست جدیدی را اعلام کرد که از فناوری برای شناسایی تصاویر سوء استفاده از کودکان بالقوه در iCloud و Messages استفاده می کند، اما نگرانی ها به دنبال آن بود. کارشناسان هشدار دادند که اگرچه اپل قول داده است که حریم خصوصی کاربران را حفظ کند، اما این فناوری در نهایت همه کاربران اپل را در معرض خطر قرار خواهد داد.

Image
Image

روز جمعه، اپل گفت که عرضه این فناوری را به طور کلی به تاخیر می اندازد تا بهبودهایی ایجاد کند و کاملاً از حریم خصوصی کاربر اطمینان حاصل کند.

بر اساس بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران، تصمیم گرفته‌ایم در ماه‌های آینده زمان بیشتری را برای جمع‌آوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگی‌های بسیار مهم ایمنی کودکان اختصاص دهیم. بیانیه به روز شده در وب سایت خود

فناوری تشخیص مواد سوء استفاده جنسی از کودکان قرار بود اواخر سال جاری در نسخه iOS 15 در دسترس قرار گیرد، اما اکنون مشخص نیست که این ویژگی چه زمانی یا یا نه.

فناوری جدید به دو صورت کار می کند: اول، با اسکن یک تصویر قبل از پشتیبان گیری در iCloud. اگر آن تصویر با معیارهای CSAM مطابقت داشته باشد، اپل آن داده را دریافت خواهد کرد. بخش دیگر این فناوری از یادگیری ماشینی برای شناسایی و محو کردن تصاویر غیراخلاقی جنسی که کودکان از طریق پیام‌ها دریافت می‌کنند، استفاده می‌کند.

با این حال، پس از اعلام سیاست جدید، حامیان حریم خصوصی و گروه ها گفتند که اپل اساساً در پشتی را باز می کند که بازیگران بد می توانند از آن سوء استفاده کنند.

برای رفع این نگرانی ها، اپل اندکی پس از اعلام فناوری CSAM یک صفحه پرسش و پاسخ منتشر کرد. اپل توضیح داد که این فناوری تمام عکس‌های ذخیره‌شده در یک دستگاه را اسکن نمی‌کند، رمزگذاری سرتاسر پیام‌ها را خراب نمی‌کند، و افراد بی‌گناه را به اشتباه به مجریان قانون معرفی نمی‌کند.

توصیه شده: