في الأسبوع الماضي ، قامت Apple بمعاينة عدد من التحديثات التي تهدف إلى تعزيز ميزات سلامة الأطفال على أجهزتها. من بينها: تقنية جديدة يمكنها مسح الصور على أجهزة المستخدمين للكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM). على الرغم من الإشادة بالتغيير على نطاق واسع من قبل بعض المشرعين والمدافعين عن سلامة الأطفال ، إلا أنه أثار معارضة فورية من العديد من خبراء الأمن والخصوصية ، الذين يقولون إن التحديث يرقى إلى تراجع شركة Apple عن التزامها بوضع خصوصية المستخدم فوق كل شيء آخر. عارضت شركة Apple هذا التوصيف ، قائلة إن نهجها يوازن بين الخصوصية والحاجة إلى بذل المزيد لحماية الأطفال من خلال منع بعض المحتوى البغيض من الانتشار على نطاق أوسع. ماذا أعلنت شركة آبل؟ أعلنت شركة Apple عن ثلاثة تحديثات منفصلة ، وكلها تندرج تحت مظلة "سلامة الأطفال". الميزة الأكثر أهمية - والتي حظيت بالجزء الأكبر من الاهتمام - هي الميزة التي ستقوم بمسح صور iCloud بحثًا عن CSAM المعروفة. تقارن الميزة ، المدمجة في صور iCloud ، صور المستخدم بقاعدة بيانات للمواد المحددة مسبقًا. إذا تم الكشف عن عدد معين من هذه الصور ، فسيؤدي ذلك إلى بدء عملية المراجعة. إذا تم التحقق من الصور من قبل المراجعين البشريين ، فستعلق Apple حساب iCloud هذا وتبلغ عنه إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC). قامت Apple أيضًا بمعاينة ميزات "أمان الاتصال" الجديدة لتطبيق الرسائل. يمكّن هذا التحديث تطبيق الرسائل من اكتشاف الوقت الذي يرسل فيه الأطفال صورًا جنسية صريحة أو يتلقونها. والأهم من ذلك ، أن هذه الميزة متاحة فقط للأطفال الذين يشكلون جزءًا من حساب العائلة ، والأمر متروك للوالدين للاشتراك. سترسل ميزة رسائل Apple الجديدة للأطفال تحذيرات عند إرسال أو استلام صور جنسية صريحة. إذا اختار الوالدان الاشتراك في الميزة ، فسيتم تنبيههما إذا شاهد طفل أقل من 13 عامًا إحدى هذه الصور. بالنسبة للأطفال الذين تزيد أعمارهم عن 13 عامًا ، سيعرض تطبيق الرسائل تحذيرًا عند تلقي صورة فاضحة ، ولكنه لن ينبه والديهم. على الرغم من أن الميزة جزء من تطبيق الرسائل ، ومنفصلة عن اكتشاف CSAM ، فقد لاحظت Apple أن الميزة لا تزال تلعب دورًا في إيقاف استغلال الأطفال ، لأنها قد تعطل الرسائل المفترسة. أخيرًا ، تقوم Apple بتحديث Siri وقدرات البحث الخاصة به حتى تتمكن من "التدخل" في الاستفسارات حول CSAM. إذا سأل شخص ما عن كيفية الإبلاغ عن مواد إساءة الاستخدام ، على سبيل المثال ، فإن Siri سيوفر روابط لمصادر للقيام بذلك. إذا اكتشف أن شخصًا ما قد يبحث عن CSAM ، فسيتم عرض تحذير وسطح الموارد لتقديم المساعدة. متى يحدث هذا وهل يمكنك الانسحاب؟ ستكون التغييرات جزءًا من iOS 15 ، والذي سيتم طرحه في وقت لاحق من هذا العام. يمكن للمستخدمين إلغاء الاشتراك بشكل فعال عن طريق تعطيل صور iCloud (يمكن العثور على إرشادات للقيام بذلك هنا). ومع ذلك ، يجب على أي شخص يقوم بتعطيل iCloud Photos أن يضع في اعتباره أنه قد يؤثر على قدرتك على الوصول إلى الصور عبر أجهزة متعددة. إذن كيف يعمل هذا المسح الضوئي للصور؟ Apple ليست الشركة الوحيدة التي تقوم بمسح الصور للبحث عن CSAM. ومع ذلك ، فإن نهج Apple للقيام بذلك فريد من نوعه. يعتمد اكتشاف CSAM على قاعدة بيانات للمواد المعروفة ، والتي تحتفظ بها NCMEC ومنظمات السلامة الأخرى. هذه الصور "مجزأة" (الاسم الرسمي لشركة Apple لهذا هو NeuralHash) - وهي عملية تحول الصور إلى رمز رقمي يسمح بالتعرف عليها ، حتى إذا تم تعديلها بطريقة ما ، مثل الاقتصاص أو إجراء تعديلات مرئية أخرى. كما ذكرنا سابقًا ، لا يعمل اكتشاف CSAM إلا إذا تم تمكين iCloud Photos. ما هو ملحوظ في نهج Apple هو أنه بدلاً من مطابقة الصور بمجرد إرسالها إلى السحابة - كما تفعل معظم الأنظمة الأساسية السحابية - قامت Apple بنقل هذه العملية إلى أجهزة المستخدمين. وإليك كيفية عملها: يتم تخزين تجزئة CSAM المعروفة على الجهاز ، وتتم مقارنة الصور الموجودة على الجهاز بتلك التجزئة. يقوم جهاز iOS بعد ذلك بإنشاء "قسيمة أمان" مشفرة يتم إرسالها إلى iCloud مع الصورة. إذا وصل الجهاز إلى حد معين من CSAM ، فيمكن لشركة Apple فك تشفير قسائم الأمان وإجراء مراجعة يدوية لهذه الصور. لا تذكر Apple ما هي العتبة ، لكنها أوضحت أن صورة واحدة لن تؤدي إلى أي إجراء. نشرت Apple أيضًا شرحًا تقنيًا مفصلاً للعملية هنا. لماذا هذا مثير للجدل؟ أثار المدافعون عن الخصوصية والباحثون الأمنيون عددًا من المخاوف. أحد هذه الأسباب هو أن هذا يبدو وكأنه انعكاس كبير لشركة Apple ، التي رفضت قبل خمس سنوات طلب مكتب التحقيقات الفيدرالي بإلغاء قفل الهاتف ووضعت لوحات إعلانية تنص على "ما يحدث على جهاز iPhone الخاص بك يبقى على جهاز iPhone الخاص بك". بالنسبة للكثيرين ، فإن حقيقة أن Apple أنشأت نظامًا يمكنه التحقق بشكل استباقي من صورك بحثًا عن مواد غير قانونية وإحالتها إلى تطبيق القانون ، يبدو وكأنه خيانة لهذا الوعد. في بيان ، وصفتها مؤسسة Electronic Frontier Foundation بأنها "تحول صادم للمستخدمين الذين اعتمدوا على قادة الشركة ع في الخصوصية والأمان. " وبالمثل ، فإن Facebook - الذي قضى سنوات في مواجهة انتقادات من Apple بسبب أخطاء الخصوصية - قد واجه مشكلة مع نهج صانع iPhone تجاه CSAM. وصفه رئيس واتساب ، ويل كاثكارت ، بأنه "نظام مراقبة قامت شركة Apple ببنائه وتشغيله". وبشكل أكثر تحديدًا ، هناك مخاوف حقيقية من أنه بمجرد إنشاء مثل هذا النظام ، يمكن أن تتعرض Apple للضغط - إما من قبل تطبيق القانون أو الحكومات - للبحث عن أنواع أخرى من المواد. في حين أن اكتشاف CSAM سيكون في الولاياتالمتحدة فقط للبدء ، فقد اقترحت Apple أنه قد يتوسع في النهاية إلى بلدان أخرى ويعمل مع منظمات أخرى. ليس من الصعب تخيل سيناريوهات يمكن فيها الضغط على Apple لبدء البحث عن أنواع أخرى من المحتوى غير القانوني في بعض البلدان. تم الاستشهاد بامتيازات الشركة في الصين - حيث قيل إن شركة Apple "تنازلت" عن مراكز بياناتها للحكومة الصينية - كدليل على أن الشركة ليست محصنة ضد مطالب الحكومات الأقل ديمقراطية. هناك أسئلة أخرى أيضًا. مثل ما إذا كان من الممكن أن يسيء شخص ما هذه العملية عن طريق إدخال CSAM بشكل ضار على جهاز شخص ما من أجل جعله يفقد الوصول إلى حساب iCloud الخاص به. أو ما إذا كان هناك سيناريو إيجابي خاطئ ، أو سيناريو آخر يؤدي إلى وضع علامة غير صحيحة على شخص ما بواسطة خوارزميات الشركة. ماذا تقول شركة آبل عن هذا؟ نفت شركة Apple بشدة أنها تهين الخصوصية أو تتراجع عن التزاماتها السابقة. نشرت الشركة وثيقة ثانية تحاول فيها معالجة العديد من هذه الادعاءات. فيما يتعلق بمسألة الإيجابيات الكاذبة ، أكدت Apple مرارًا وتكرارًا أنها تقارن صور المستخدمين فقط بمجموعة من المواد المعروفة لاستغلال الأطفال ، لذلك لن تؤدي صور أطفالك ، على سبيل المثال ، إلى إصدار بلاغ. بالإضافة إلى ذلك ، قالت شركة Apple إن احتمالات النتيجة الإيجابية الخاطئة تبلغ حوالي واحد في كل تريليون عندما تضع في الاعتبار حقيقة أنه يجب اكتشاف عدد معين من الصور من أجل إجراء مراجعة. بشكل حاسم ، على الرغم من ذلك ، تقول شركة Apple بشكل أساسي أنه علينا فقط أن نأخذ كلمتهم في هذا الشأن. كما كتب رئيس الأمن السابق في Facebook Alex Stamos والباحث الأمني Matthew Green في مقال رأي مشترك في New York Times ، لم تقدم Apple للباحثين الخارجيين رؤية واضحة لكيفية عمل كل هذا في الواقع. تقول Apple أيضًا إن مراجعتها اليدوية ، التي تعتمد على المراجعين البشريين ، ستكون قادرة على اكتشاف ما إذا كان CSAM على الجهاز نتيجة لنوع من الهجوم الضار. عندما يتعلق الأمر بالضغط من الحكومات أو وكالات إنفاذ القانون ، قالت الشركة أساسًا إنها سترفض التعاون مع مثل هذه الطلبات. وكتبت: "لقد واجهنا مطالب لبناء ونشر التغييرات التي فرضتها الحكومة والتي تقوض خصوصية المستخدمين من قبل ، ورفضنا هذه المطالب بثبات". سنواصل رفضهم في المستقبل. لنكن واضحين ، تقتصر هذه التقنية على اكتشاف CSAM المخزنة في iCloud ولن نوافق على أي طلب حكومي لتوسيعه ". على الرغم من أننا ، مرة أخرى ، علينا فقط أن نأخذ آبل في كلمتها هنا. إذا كان الأمر مثيرًا للجدل ، فلماذا تفعل Apple ذلك؟ الإجابة المختصرة هي أن الشركة تعتقد أن هذا هو إيجاد التوازن الصحيح بين زيادة سلامة الأطفال وحماية الخصوصية. CSAM غير قانوني ، وفي الولاياتالمتحدة ، الشركات ملزمة بالإبلاغ عنها عندما تجدها. نتيجة لذلك ، تم دمج ميزات اكتشاف CSAM في الخدمات الشائعة لسنوات. ولكن على عكس الشركات الأخرى ، لم تتحقق Apple من CSAM في صور المستخدمين ، ويرجع ذلك إلى حد كبير إلى موقفها من الخصوصية. ليس من المستغرب أن يكون هذا مصدرًا رئيسيًا للإحباط لمنظمات سلامة الأطفال وإنفاذ القانون. لوضع هذا في المنظور الصحيح ، في عام 2019 ، أبلغ Facebook عن 65 مليون حالة من CSAM على منصته ، وفقًا لصحيفة The New York Times. أبلغت Google عن 3.5 مليون صورة وفيديو ، بينما أبلغت Twitter و Snap عن "أكثر من 100.000" ، بينما أبلغت Apple من ناحية أخرى عن 3000 صورة. هذا ليس لأن المتحرشين من الأطفال لا يستخدمون خدمات Apple ، ولكن لأن Apple لم تكن تقريبًا مثل بعض الأنظمة الأساسية الأخرى في البحث عن هذه المواد ، وميزات الخصوصية لديها جعلت من الصعب القيام بذلك. ما تغير الآن هو أن Apple تقول إنها توصلت إلى وسائل تقنية لاكتشاف مجموعات CSAM المعروفة في مكتبات صور iCloud التي لا تزال تحترم خصوصية المستخدمين. من الواضح أن هناك الكثير من الخلاف حول التفاصيل وما إذا كان أي نوع من أنظمة الكشف يمكن أن يكون حقًا "خاصًا". لكن شركة Apple قد حسبت أن المقايضة تستحق العناء. قال رئيس قسم الخصوصية في Apple لصحيفة The New York Times: "إذا كنت تخزن مجموعة من مواد CSAM ، نعم ، فهذا أمر سيء بالنسبة لك". "لكن بالنسبة لبقيةكم ، هذا لا يختلف."