Apple با قابلیت تشخیص برهنگی و محافظت از کودکان در برنامه Messages برای iOS 15.2 جلو خواهد رفت، اما والدین باید آن را روشن کنند.
هنگامی که اپل برای اولین بار ویژگیهای محافظت از کودکان خود را معرفی کرد، با واکنش نسبتاً انتقادی مواجه شد که منجر به تاخیر در عرضه برنامهریزیشده شد. بزرگترین نگرانی حفظ حریم خصوصی - اسکن اپل عکس های iCloud برای مواد سوء استفاده جنسی از کودکان (CSAM) - هنوز در حالت تعلیق است، اما به گفته بلومبرگ، به روز رسانی Messages برای انتشار با iOS 15.2 برنامه ریزی شده است. اپل میگوید که بهطور پیشفرض روشن نخواهد بود، و آنالیز تصویر روی دستگاه انجام میشود، بنابراین به مواد بالقوه حساس دسترسی نخواهد داشت.
طبق گفته اپل، پس از فعال شدن، این ویژگی از یادگیری ماشینی روی دستگاه برای تشخیص اینکه آیا عکسهای ارسالی یا دریافتی در پیامها حاوی مطالب صریح هستند، استفاده میکند. این کار تصاویر ورودی بالقوه صریح را محو میکند و به کودک هشدار میدهد یا در صورت ارسال چیزی که ممکن است صریح باشد به او هشدار میدهد.
در هر دو مورد، کودک همچنین این گزینه را خواهد داشت که با یکی از والدین تماس بگیرد و به آنها بگوید که چه اتفاقی در حال رخ دادن است. در فهرستی از پرسشهای متداول، اپل بیان میکند که برای حسابهای کودک 12 سال و زیر، به کودک هشدار داده میشود که در صورت مشاهده/ارسال مطالب صریح با والدین تماس گرفته میشود. برای حسابهای کودک بین 13 تا 17 سال، به کودک در مورد خطر احتمالی هشدار داده میشود، اما با والدین تماس گرفته نمیشود.
در همان پرسشهای متداول، اپل اصرار دارد که هیچ یک از اطلاعات با طرفهای خارجی، از جمله اپل، مجری قانون، یا NCMEC (مرکز ملی کودکان گمشده و استثمارشده) به اشتراک گذاشته نخواهد شد.
این گزینههای ایمنی کودک جدید برای Messages باید در بهروزرسانی آینده iOS 15.2 در دسترس باشند، طبق گفته Macworld، انتظار میرود در این ماه منتشر شود.