Apple Child Safety برای عکس‌های کودکان: آنچه باید بدانید

Apple Child Safetyاپل اعلام کرد که یک پروتکل جدید را تصویب می‌کند: اسکن خودکار iPhone و iPad برای بررسی عکس‌های کاربران در زمینه مواد تجاوز جنسی به کودکان (CSAM). اپل در یک پست وبلاگی توضیح داده که Apple Child Safety را برای محدود کردن گسترش CSAM انجام می‌دهد، اما ویژگی‌های دیگری را نیز اضافه می‌کند: برای محافظت از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی برای جذب و سوء استفاده از آنها استفاده می‌کنند. در حال حاضر، این ویژگی فقط در ایالات متحده در دسترس خواهد بود.

اپل یک ویژگی جدید در iOS 15 و iPadOS 15 (هر دو انتظار می‌رود در چند ماه آینده معرفی شود) قرار خواهد داد که به طور خودکار تصاویر را بر روی دستگاه کاربران اسکن می‌کند تا ببیند آیا آنها با محتوای CSAM شناسایی شده قبلی مطابقت دارند که توسط هش‌های منحصر به فرد مشخص می‌شود. ( به عنوان مثال مجموعه‌ای از اعداد که بین تصاویر تکراری سازگار است، مانند اثر انگشت دیجیتال) این ویژگی Apple Child Safety نام دارد.

بررسی هش‌ها یک روش رایج برای تشخیص CSAM است که شرکت امنیتی وب سایت CloudFare در سال ۲۰۱۹ تأسیس کرد و توسط سازمان غیرانتفاعی قاچاق جنسی کودکان Thorn، سازمانی که توسط اشتون کوچر و دمی مور تاسیس شده، استفاده می‌شود.

WhatsApp and Epic Games Slam Apple's iPhone Scanning Tool for Child Safety  - Bharat Times English News

علاوه بر این، اپل دو سیستم نیز به این ویژگی Apple Child Safety اضافه کرده است که والدین می‌توانند به صورت اختیاری برای کودکان در شبکه خانوادگی خود فعال کنند: تجزیه و تحلیل دستگاه در بخش پیام‌ها که عکس‌های ورودی و خروجی را برای مواردی که ممکن است موارد جنسی واضحی داشته باشند، اسکن می‌کند و در صورت مشاهده محتوا، یک تنظیم اختیاری می‌تواند به والدین مرتبط با حساب اطلاع دهد.

اپل همچنین Siri و Search را قادر می سازد تا در صورت درخواست کاربر در مورد گزارش CSAM ، منابع مفید را نشان دهد. هر دوی آنها همچنین در هنگام جستجوی کاربران در مورد پرسش های مربوط به CSAM مداخله خواهند کرد و جستجوگر را از پتانسیل مضر مواد مطلع می کنند و به منابع برای کمک اشاره می کنند.

این یک مرور کلی از نحوه ادغام نرم افزار برای ردیابی CSAM است و با مداخله در هنگام دریافت (و ارسال) عکس‌های بالقوه نامناسب، از کودکان در برابر شکار جلوگیری می‌کند. اما چشم انداز اینکه اپل به طور خودکار مطالب شما را اسکن کند، نگرانی‌هایی را از طرف کارشناسان فناوری و حامیان حریم خصوصی ایجاد کرده که  در ادامه به آن می‌پردازیم.

آیا این ویژگی Apple Child Safety روی حریم خصوصی تأثیر می‌گذارد؟

Apple child safety CSAM scanning to expand on a per-country basis -  SlashGear

اگر عکس‌هایی با CSAM در iPhone یا iPad خود ندارید، هیچ چیز برای شما تغییر نمی‌کند. اگر جستجوی سیری یا جستجوی آنلاین مربوط به CSAM را انجام ندهید، هیچ چیز برای شما تغییر نمی‌کند.

اگر حساب iPhone یا iPad شما با یک خانواده در iCloud تنظیم شده باشد و دستگاه شما در آن شبکه برای کودک تعیین شده باشد، Apple Child Safety در صورت دریافت عکس‌های واضح از نظر جنسی، هشدارهایی برای والدین ارسال کرده و عکس‌های ارسال شده را تار نشان خواهد داد. اگر دستگاه شما به عنوان یک خانواده به یک شبکه خانوادگی متصل نشده باشد، هیچ چیز برای شما تغییر نمی‌کند.

در نهایت، اگر دستگاه خود را به iOS 15 ، iPadOS 15 یا macOS Monterey ارتقا ندهید، دستگاه شما هیچ یک از این ویژگی‌ها را در دسترس نخواهد داشت. (دومی احتمالا عکس‌های iCloud را برای CSAM اسکن می‌کند، اما مشخص نیست که مداخله در برنامه Messages برای عکس‌های جنسی واضح  در هنگام استفاده کاربران macOS Monterey نیز اتفاق می‌افتد یا خیر.)

این به روز رسانی ها فقط برای کاربران در ایالات متحده ارائه می شود و مشخص نیست که چه زمانی (یا اگر) در جاهای دیگر گسترش می یابند – اما با توجه به اینکه اپل این اقدامات را به عنوان اقدامات حفاظتی مطرح کرده است ، اگر آنها آن را به کاربران تعمیم ندهند ، تعجب می کنیم. در کشورهای دیگر.

چرا اپل این کار را می‌کند؟

Apple to scan iPhones and iCloud for photos of child sexual abuse - DIY  Photography

از منظر اخلاقی، اپل به سادگی با Apple Child Safety والدین را قادر می‌سازد تا از فرزندان خود محافظت کرده و خدمات اجتماعی را با مهار CSAM انجام دهند. همانطور که این شرکت در پست وبلاگ خود اظهار داشت، این برنامه بلند پروازانه است و حفاظت از کودکان یک مسئولیت مهم است.

اپل بارها و بارها از ویژگی‌های حریم خصوصی دستگاه های خود حمایت کرده است و با اقداماتی مانند حداکثر تجزیه و تحلیل روی دستگاه (به جای بارگذاری داده‌ها در سرورهای ابری) و برقراری ارتباطات رمزگذاری شده سر تا سری و همچنین ابتکاراتی مانند شفافیت ردیابی برنامه که در iOS 14.5 عرضه شد، این موضوع را تایید کرد.

اما اپل در طول این سال‌ها در حال دریافت دعاوی‌هایی است که ظاهرا این شرکت را به محافظت از حریم خصوصی بیشتری سوق داده است. به عنوان مثال، یک مدافع حقوق مصرف کننده در اتحادیه اروپا در سال ۲۰۲۰ از این غول فناوری به دلیل عملکرد اپل در حفظ حقوق مصرف کننده شکایت کرد. همانطور که توسط گاردین گزارش شده، iPhone an Identifier for Advertisers (IDFA) برای ردیابی کاربران در برنامه‌ها استفاده شده‌است.

این موضوع ممکن است اپل را تحت فشار قرار دهد تا با قابلیت شفافیت ردیابی برنامه، کنترل بیشتری به مصرف کنندگان بدهد یا حداقل با اقدامات در حال انجام این شرکت هماهنگ باشد.

ما نمی‌توانیم دعوای خاصی را پیدا کنیم که اپل را مجبور به ایجاد این تغییرات در Apple Child Safety کرده باشد، اما کاملا محتمل است که این شرکت با ارائه ابزارهای محافظت بیشتر به کاربران جوان‌تر و همچنین حذف CSAM در سرورهای iCloud و iPhone های خود، از خود محافظت می‌کند. به طور کلی، همه آنها می‌توانند مسئولیت اپل را در آینده محدود کنند.

اما اگر می توانید مواد CSAM را حذف کنید، چرا این کار را نمی‌کنید؟

نظر محققان امنیتی چیست؟

Apple's Child Safety measures draw flak from Big Tech, experts

بلافاصله پس از معرفی ابتکارات جدید اپل در Apple Child Safety، کارشناسان امنیتی و حامیان حریم خصوصی با هشدار در این باره صحبت کردند. البته نه برای دفاع از استفاده از CSAM بلکه به دلیل نگرانی از روش‌های اپل در تشخیص آن در دستگاه‌های کاربران این نگرانی به وجود آمده است.

به نظر نمی‌رسد که ویژگی اسکن CSAM اختیاری باشد. تقریبا به طور پیش فرض در iOS 15 گنجانده شده و پس از بارگیری، قابل جداسازی از سیستم عامل نیست.

از این رو، عکس‌های کاربران را قبل از بارگذاری در حساب iCloud بر روی دستگاه  به طور خودکار اسکن می‌کند. اگر مقدار مشخصی از عکس در حین اسکن با هش‌های CSAM مطابقت داشته باشد، اپل به صورت دستی تصویر پرچم گذاری شده را بررسی می‌کند و در صورت تشخیص آنکه CSAM معتبر باشد، حساب کاربر بسته شده و اطلاعات وی به مرکز ملی کودکان مفقود شده و استثمار شده (NCMEC)، که با مجریان قانون همکاری می‌کند، ارسال می‌شود.

اپل بسیار مراقب است که داده‌های کاربران را برای کارکنان شرکت رمزگذاری و خوانا نکند مگر اینکه آستانه شباهت با CSAM شناخته شده را بشکند. و از نظر اپل ، این آستانه سطح بسیار بالایی از دقت را ارائه می‌دهد و کمتر از یک در یک تریلیون شانس نشان دادن اشتباه یک حساب را تضمین می‌کند.

Apple Child Safety Photo Scanning: What You Need

اما این اسکن خودکار است که طرفداران حریم خصوصی را ناراحت کرده است. بنیاد غیرانتفاعی حریم خصوصی دیجیتال Electronic Frontier (EFF) در پست وبلاگ خود در واکنش به ابتکار اپل نوشت: یک در پشتی یک درب پشتی است، دلیل این که حتی افزودن این فناوری اسکن خودکار درهای سوء استفاده‌های گسترده‌تری را باز می‌کند:

وی افزود: تنها چیزی که هنگام باز کردن درب پشتی باریک که اپل با Apple Child Safety در حال ساخت آن است، گسترش می‌یابد، پارامترهای یادگیری ماشین برای جستجوی انواع دیگر محتوا یا تغییر در پرچم‌های پیکربندی برای اسکن، نه فقط حساب کودکان، بلکه حساب‌های هر کسی است.

EFF نوشت: Apple Child Safety یک شیب لغزنده نیست؛ این یک سیستم کاملا ساخته شده است که فقط منتظر فشار خارجی است تا کوچکترین تغییری ایجاد کند.

برخی دیگر در صنعت فناوری نیز با طرح اسکن خودکار اپل در Apple Child Safety مخالفت نکرده‌اند، از جمله ویل کات کارت، رئیس سرویس پیام رسانی WhatsApp متعلق به فیس بوک.

Families - Apple

وی در یک پیام توییتری به عملکرد WhatsApp در تسهیل پرچم گذاری کاربران برای CSAM اشاره کرد، به گفته وی، این سرویس سال گذشته بیش از ۴۰۰.۰۰۰ مورد را به NCMEC گزارش داد، همه بدون شکستن رمزگذاری.

فیس بوک معمولا سعی کرده از شفافیت ردیابی برنامه‌های اپل جلوگیری کند: پس از مجبور شدن به افشای میزان دسترسی کاربران به برنامه تلفن همراه (و برنامه WhatsApp)، فیس بوک سعی کرده است کاربران را ترغیب به تایید این دسترسی کند در حالی که از اپل به دلیل شفافیت ردیابی برنامه انتقاد می‌کند. این شرکت با تکیه بر آسیب به کسب و کارهای کوچک (و احتمالا فیس بوک) با اتکا به درآمد تبلیغاتی از کاربران درخواست می‌کند این مجوز را صادر کنند.

سایر کارشناسان فناوری منتظر هستند تا اپل اطلاعات بیشتری را قبل از اینکه کاملا با دیدگاه EFF طرف شود در مورد Apple Child Safety، ارائه دهد.

آوی گرینگارت، بنیانگذار شرکت تحقیقات و تجزیه و تحلیل فناوری Techsponential، از طریق پیام توییتر خود به TechRadar گفت: نگرانی EFF و دیگر حامیان حریم خصوصی در مورد سوء استفاده از روش‌های اقتدارگرا ممکن است به طور وحشتناکی واکنش بیش از حد باشد. اپل باید جزئیات پیاده سازی بیشتری ارائه دهد.

با این حال، من به عنوان یک والد، ​​این ایده را دوست دارم که iMessage  قبل از ارسال پیام، از قانون محدودیت  ارسال پیام به افراد زیر سن قانونی استفاده کند. هر چیزی که حتی به طور موقت روند را کند کرده و به بچه‌ها فرصت دهد تا در مورد عواقب آن فکر کنند، چیز خوبی است. 

به روز رسانی: پس از بازخورد و سردرگمی در مورد نحوه عملکرد سیاست جدید اپل در Apple Child Safety، این شرکت سوالات متداول چند صفحه‌ای را منتشر کرد. این اطلاعات دقیقا توضیح می‌دهد که کجا عکس‌ها برای CSAM مورد تجزیه و تحلیل قرار می‌گیرند و نحوه فیلترینگ پیام‌ها چگونه کار می‌کند، این کار برای اطمینان از امنیت کاربران از اینکه کل فضای ذخیره سازی iCloud آنها اسکن نمی‌شود (فقط قبل از بارگذاری عکس‌ها) و پیام‌ها فقط برای موارد زیر فیلتر می‌شوند، در دسترس قرار گرفته است. کاربران زیر ۱۲ سال که به حساب‌های خانوادگی مرتبط هستند بیشتر تحت تاثیر این ویژگی هستند. اپل به صراحت اعلام کرد که تجزیه و تحلیل عکس CSAM هیچ کاربرد دیگری نخواهد داشت، به ویژه با درخواست دولت نیز کاری نخواهد داشت.

ارسال یک پاسخ

لطفا دیدگاه خود را وارد کنید!
لطفا نام خود را در اینجا وارد کنید