اپل برنامه های اسکن iCloud CSAM را به تأخیر انداخت

iCloud CSAM

ماه گذشته، اپل یک قابلیت جدید برای iCloud اعلام کرد که از طریق آن هش تصاویر بارگذاری شده را اسکن کرده و آنها را با تصاویر شناخته شده از موارد سوء استفاده جنسی از کودکان (iCloud CSAM) مقایسه می‌کند. در صورت تعیین موارد مشابه، مقامات در این امر دخیل خواهند بود. این سیستم ترکیبی از اتوماسیون و تجزیه و تحلیل انسانی بود. به دنبال واکنش‌های منفی، اپل تصمیم گرفته است تا عرضه خود را به تعویق بیاندازد.

Apple products in classroom

در بیانیه به روز شده ای که در اسناد اپل برای ویژگی‌های iCloud CSAM ایمنی کودکان مشاهده می‌شود، این شرکت اشاره کرده است که:
قبلا ما برنامه‌هایی را برای ویژگی‌هایی که به منظور محافظت از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی برای سوء استفاده از آنها استفاده می‌کنند، معرفی کردیم و برای جلوگیری از گسترش موارد سوء استفاده جنسی از کودکان نیز برنامه‌هایی را اعلام کردیم. بر اساس بازخوردهای مشتریان، گروه‌های حمایتی، محققان و دیگران، ما تصمیم گرفته‌ایم تا قبل از انتشار این ویژگی بسیار مهم ایمنی کودکان، در ماه‌های آینده زمان بیشتری را صرف جمع آوری اطلاعات و بهبود آنها کنیم.
اگرچه الگوریتم NeuralHash اپل برای تشخیص iCloud CSAM هش تصاویر را محاسبه کرده و سپس آنها را به جای مقایسه کل تصویر با تصاویر شناخته شده اسکن می‌کند، اما با توجه به احتمال سوء استفاده، به ویژه با توجه به مقیاس جهانی آن، واکنش‌های زیادی از طرفداران حریم خصوصی دریافت کرده است. بسیاری از محققان راه حل غول فناوری کوپرتینو را ناکارآمد خوانده و دریافتند که برخورد هش در تصاویر به ظاهر متفاوت کاملا امکان پذیر است.
Apple delays controversial iCloud Photo CSAM scanning - News Update
در آن زمان، اپل به طور خصوصی اظهار داشت که می‌داند مردم نگران هستند، اما این به این دلیل است که سوء تفاهم‌های زیادی در مورد iCloud CSAM وجود دارد. حتی یک سند شش صفحه‌ای توسط این شرکت منتشر شد که کل راه حل را توضیح می‌دهد، اما به وضوح، این کار برای مدافعان حریم خصوصی کافی نیست. در نتیجه، اپل اکنون تصمیم گرفته که عرضه این ویژگی را حداقل چند ماه به تعویق بیاندازد.

ارسال یک پاسخ

لطفا دیدگاه خود را وارد کنید!
لطفا نام خود را در اینجا وارد کنید