پس از مخالفت های زیادی از سوی منتقدان و کاربران، اپل اقدامات ضد کودک آزاری خود را به تعویق می اندازد.
در ماه آگوست، غول فناوری در ابتدا سیاست جدیدی را اعلام کرد که از فناوری برای شناسایی تصاویر سوء استفاده از کودکان بالقوه در iCloud و Messages استفاده می کند، اما نگرانی ها به دنبال آن بود. کارشناسان هشدار دادند که اگرچه اپل قول داده است که حریم خصوصی کاربران را حفظ کند، اما این فناوری در نهایت همه کاربران اپل را در معرض خطر قرار خواهد داد.
روز جمعه، اپل گفت که عرضه این فناوری را به طور کلی به تاخیر می اندازد تا بهبودهایی ایجاد کند و کاملاً از حریم خصوصی کاربر اطمینان حاصل کند.
بر اساس بازخورد مشتریان، گروههای مدافع، محققان و دیگران، تصمیم گرفتهایم در ماههای آینده زمان بیشتری را برای جمعآوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگیهای بسیار مهم ایمنی کودکان اختصاص دهیم. بیانیه به روز شده در وب سایت خود
فناوری تشخیص مواد سوء استفاده جنسی از کودکان قرار بود اواخر سال جاری در نسخه iOS 15 در دسترس قرار گیرد، اما اکنون مشخص نیست که این ویژگی چه زمانی یا یا نه.
فناوری جدید به دو صورت کار می کند: اول، با اسکن یک تصویر قبل از پشتیبان گیری در iCloud. اگر آن تصویر با معیارهای CSAM مطابقت داشته باشد، اپل آن داده را دریافت خواهد کرد. بخش دیگر این فناوری از یادگیری ماشینی برای شناسایی و محو کردن تصاویر غیراخلاقی جنسی که کودکان از طریق پیامها دریافت میکنند، استفاده میکند.
با این حال، پس از اعلام سیاست جدید، حامیان حریم خصوصی و گروه ها گفتند که اپل اساساً در پشتی را باز می کند که بازیگران بد می توانند از آن سوء استفاده کنند.
برای رفع این نگرانی ها، اپل اندکی پس از اعلام فناوری CSAM یک صفحه پرسش و پاسخ منتشر کرد. اپل توضیح داد که این فناوری تمام عکسهای ذخیرهشده در یک دستگاه را اسکن نمیکند، رمزگذاری سرتاسر پیامها را خراب نمیکند، و افراد بیگناه را به اشتباه به مجریان قانون معرفی نمیکند.