ماه گذشته، اپل یک قابلیت جدید برای iCloud اعلام کرد که از طریق آن هش تصاویر بارگذاری شده را اسکن کرده و آنها را با تصاویر شناخته شده از موارد سوء استفاده جنسی از کودکان (iCloud CSAM) مقایسه میکند. در صورت تعیین موارد مشابه، مقامات در این امر دخیل خواهند بود. این سیستم ترکیبی از اتوماسیون و تجزیه و تحلیل انسانی بود. به دنبال واکنشهای منفی، اپل تصمیم گرفته است تا عرضه خود را به تعویق بیاندازد.
در بیانیه به روز شده ای که در اسناد اپل برای ویژگیهای iCloud CSAM ایمنی کودکان مشاهده میشود، این شرکت اشاره کرده است که:
قبلا ما برنامههایی را برای ویژگیهایی که به منظور محافظت از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی برای سوء استفاده از آنها استفاده میکنند، معرفی کردیم و برای جلوگیری از گسترش موارد سوء استفاده جنسی از کودکان نیز برنامههایی را اعلام کردیم. بر اساس بازخوردهای مشتریان، گروههای حمایتی، محققان و دیگران، ما تصمیم گرفتهایم تا قبل از انتشار این ویژگی بسیار مهم ایمنی کودکان، در ماههای آینده زمان بیشتری را صرف جمع آوری اطلاعات و بهبود آنها کنیم.
اگرچه الگوریتم NeuralHash اپل برای تشخیص iCloud CSAM هش تصاویر را محاسبه کرده و سپس آنها را به جای مقایسه کل تصویر با تصاویر شناخته شده اسکن میکند، اما با توجه به احتمال سوء استفاده، به ویژه با توجه به مقیاس جهانی آن، واکنشهای زیادی از طرفداران حریم خصوصی دریافت کرده است. بسیاری از محققان راه حل غول فناوری کوپرتینو را ناکارآمد خوانده و دریافتند که برخورد هش در تصاویر به ظاهر متفاوت کاملا امکان پذیر است.
در آن زمان، اپل به طور خصوصی اظهار داشت که میداند مردم نگران هستند، اما این به این دلیل است که سوء تفاهمهای زیادی در مورد iCloud CSAM وجود دارد. حتی یک سند شش صفحهای توسط این شرکت منتشر شد که کل راه حل را توضیح میدهد، اما به وضوح، این کار برای مدافعان حریم خصوصی کافی نیست. در نتیجه، اپل اکنون تصمیم گرفته که عرضه این ویژگی را حداقل چند ماه به تعویق بیاندازد.