منذ أن أعلنت شركة Apple أنها تعمل على تقنية للكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM) ، كان النظام مصدرًا مثيرًا للجدل. الآن ، يقول اثنان من الأكاديميين في جامعة برينستون إنهما يعلمان أن الأداة التي بنتها شركة Apple مفتوحة لسوء الاستخدام لأنهما أمضيا سنوات في تطوير نفس النظام بدقة تقريبًا. كتب الأستاذ المساعد جوناثان ماير والباحث المتخرج Anunay Kulshrestha في مقال رأي نشرته صحيفة The Washington Post هذا الأسبوع: "كتبنا المنشور الوحيد الذي راجعه النظراء حول كيفية بناء نظام مثل نظام Apple - وخلصنا إلى أن التكنولوجيا كانت خطيرة". عمل الاثنان معًا على نظام لتحديد CSAM في خدمات الإنترنت المشفرة من طرف إلى طرف. مثل Apple ، أرادوا إيجاد طريقة للحد من انتشار CSAM مع الحفاظ على خصوصية المستخدم. كان جزء من دافعهم هو تشجيع المزيد من الخدمات عبر الإنترنت لاعتماد التشفير من طرف إلى طرف. قال الباحثون: "نشعر بالقلق من إحجام الخدمات عبر الإنترنت عن استخدام التشفير بدون أدوات إضافية لمكافحة CSAM". قضى الاثنان سنوات في العمل على الفكرة ، وفي النهاية قاما بإنشاء نموذج أولي عملي. ومع ذلك ، سرعان ما قرروا أن هناك "مشكلة صارخة" في تقنيتهم. كتب ماير وكولشرستا: "يمكن إعادة استخدام نظامنا لأغراض المراقبة والرقابة بسهولة". "لم يقتصر التصميم على فئة معينة من المحتوى ؛ يمكن للخدمة ببساطة التبديل في أي قاعدة بيانات لمطابقة المحتوى ، ولن يكون الشخص الذي يستخدم هذه الخدمة أكثر حكمة ". كما حذروا من أن هذا ليس مصدر قلق افتراضي. يشير الباحثان إلى أمثلة مثل WeChat ، التي وجد مختبر Citizen Lab التابع لجامعة تورنتو أنها تستخدم خوارزميات مطابقة المحتوى لاكتشاف المواد المنشقة. "الصين هي ثاني أكبر سوق لشركة Apple ، مع وجود مئات الملايين من الأجهزة على الأرجح. ما الذي يمنع الحكومة الصينية من مطالبة Apple بفحص هذه الأجهزة بحثًا عن مواد مؤيدة للديمقراطية؟ " يسأل ماير و Kulshrestha ، مشيرين إلى عدة حالات حيث أذعنت شركة Apple لمطالب الحكومة الصينية. على سبيل المثال ، هناك الوقت الذي أعطت فيه الشركة تحكمًا محليًا في بيانات العميل للبلد. يواصل ماير وكولشرستا: "لقد رصدنا أوجه قصور أخرى". "قد يكون لعملية مطابقة المحتوى نتائج إيجابية خاطئة ، ويمكن للمستخدمين الخبثاء التلاعب بالنظام لإخضاع المستخدمين الأبرياء للتدقيق." هذه هي المخاوف التي أثارها دعاة الخصوصية أيضًا حول نظام Apple. بالنسبة للجزء الأكبر ، حاولت Apple التقليل من شأن العديد من المخاوف التي تكررها Mayer و Kulshrestha في مقال رأيهم. أرجع النائب الأول لرئيس هندسة البرمجيات كريج فيديريغي الجدل مؤخرًا إلى ضعف الرسائل. ورفض فكرة إمكانية استخدام النظام للمسح بحثًا عن مواد أخرى ، مشيرًا إلى أن قاعدة بيانات الصور تأتي من مجموعات سلامة الأطفال المختلفة. وحول موضوع الإيجابيات الكاذبة ، قال إن النظام لا يقوم إلا بإجراء مراجعة يدوية بعد أن يقوم شخص ما بتحميل 30 صورة على iCloud. لقد تواصلنا مع Apple للتعليق على المقالة الافتتاحية. على الرغم من هذه التصريحات ، أشار ماير وكولشريستا إلى أن تحفظاتهما لا تأتي من قلة الفهم. قالوا إنهم خططوا لمناقشة مخاطر نظامهم في مؤتمر أكاديمي لكنهم لم يحظوا بفرصة لأن Apple أعلنت عن تقنيتها قبل أسبوع من العرض. "كان دافع Apple ، مثلنا ، هو حماية الأطفال. وكان نظامها أكثر كفاءة وقدرة من الناحية الفنية من نظامنا ". "لكننا شعرنا بالحيرة لرؤية أن Apple لديها إجابات قليلة عن الأسئلة الصعبة التي طرحناها."