«مستقبل وطن».. أمانة الشباب تناقش الملفات التنظيمية والحزبية مع قيادات المحافظات    تفاصيل حفل توزيع جوائز "صور القاهرة التي التقطها المصورون الأتراك" في السفارة التركية بالقاهرة    200 يوم.. قرار عاجل من التعليم لصرف مكافأة امتحانات صفوف النقل والشهادة الإعدادية 2025 (مستند)    سعر الذهب اليوم الإثنين 28 أبريل محليا وعالميا.. عيار 21 الآن بعد الانخفاض الأخير    فيتنام: زيارة رئيس الوزراء الياباني تفتح مرحلة جديدة في الشراكة الشاملة بين البلدين    محافظ الدقهلية في جولة ليلية:يتفقد مساكن الجلاء ويؤكد على الانتهاء من تشغيل المصاعد وتوصيل الغاز ومستوى النظافة    شارك صحافة من وإلى المواطن    رسميا بعد التحرك الجديد.. سعر الدولار اليوم مقابل الجنيه المصري اليوم الإثنين 28 أبريل 2025    لن نكشف تفاصيل ما فعلناه أو ما سنفعله، الجيش الأمريكي: ضرب 800 هدف حوثي منذ بدء العملية العسكرية    الإمارت ترحب بتوقيع إعلان المبادئ بين الكونغو الديمقراطية ورواندا    استشهاد 14 فلسطينيًا جراء قصف الاحتلال مقهى ومنزلًا وسط وجنوب قطاع غزة    رئيس الشاباك: إفادة نتنياهو المليئة بالمغالطات هدفها إخراج الأمور عن سياقها وتغيير الواقع    'الفجر' تنعى والد الزميلة يارا أحمد    خدم المدينة أكثر من الحكومة، مطالب بتدشين تمثال لمحمد صلاح في ليفربول    في أقل من 15 يومًا | "المتحدة للرياضة" تنجح في تنظيم افتتاح مبهر لبطولة أمم إفريقيا    وزير الرياضة وأبو ريدة يهنئان المنتخب الوطني تحت 20 عامًا بالفوز على جنوب أفريقيا    مواعيد أهم مباريات اليوم الإثنين 28- 4- 2025 في جميع البطولات والقنوات الناقلة    جوميز يرد على أنباء مفاوضات الأهلي: تركيزي بالكامل مع الفتح السعودي    «بدون إذن كولر».. إعلامي يكشف مفاجأة بشأن مشاركة أفشة أمام صن داونز    مأساة في كفر الشيخ| مريض نفسي يطعن والدته حتى الموت    اليوم| استكمال محاكمة نقيب المعلمين بتهمة تقاضي رشوة    بالصور| السيطرة على حريق مخلفات وحشائش بمحطة السكة الحديد بطنطا    بالصور.. السفير التركي يكرم الفائز بأجمل صورة لمعالم القاهرة بحضور 100 مصور تركي    بعد بلال سرور.. تامر حسين يعلن استقالته من جمعية المؤلفين والملحنين المصرية    حالة من الحساسية الزائدة والقلق.. حظ برج القوس اليوم 28 أبريل    امنح نفسك فرصة.. نصائح وحظ برج الدلو اليوم 28 أبريل    أول ظهور لبطل فيلم «الساحر» بعد اعتزاله منذ 2003.. تغير شكله تماما    حقيقة انتشار الجدري المائي بين تلاميذ المدارس.. مستشار الرئيس للصحة يكشف (فيديو)    نيابة أمن الدولة تخلي سبيل أحمد طنطاوي في قضيتي تحريض على التظاهر والإرهاب    إحالة أوراق متهم بقتل تاجر مسن بالشرقية إلى المفتي    إنقاذ طفلة من الغرق في مجرى مائي بالفيوم    إنفوجراف| أرقام استثنائية تزين مسيرة صلاح بعد لقب البريميرليج الثاني في ليفربول    رياضة ½ الليل| فوز فرعوني.. صلاح بطل.. صفقة للأهلي.. أزمة جديدة.. مرموش بالنهائي    دمار وهلع ونزوح كثيف ..قصف صهيونى عنيف على الضاحية الجنوبية لبيروت    نتنياهو يواصل عدوانه على غزة: إقامة دولة فلسطينية هي فكرة "عبثية"    أهم أخبار العالم والعرب حتى منتصف الليل.. غارات أمريكية تستهدف مديرية بصنعاء وأخرى بعمران.. استشهاد 9 فلسطينيين في قصف للاحتلال على خان يونس ومدينة غزة.. نتنياهو: 7 أكتوبر أعظم فشل استخباراتى فى تاريخ إسرائيل    29 مايو، موعد عرض فيلم ريستارت بجميع دور العرض داخل مصر وخارجها    الملحن مدين يشارك ليلى أحمد زاهر وهشام جمال فرحتهما بحفل زفافهما    خبير لإكسترا نيوز: صندوق النقد الدولى خفّض توقعاته لنمو الاقتصاد الأمريكى    «عبث فكري يهدد العقول».. سعاد صالح ترد على سعد الدين الهلالي بسبب المواريث (فيديو)    اليوم| جنايات الزقازيق تستكمل محاكمة المتهم بقتل شقيقه ونجليه بالشرقية    نائب «القومي للمرأة» تستعرض المحاور الاستراتيجية لتمكين المرأة المصرية 2023    محافظ القليوبية يبحث مع رئيس شركة جنوب الدلتا للكهرباء دعم وتطوير البنية التحتية    خطوات استخراج رقم جلوس الثانوية العامة 2025 من مواقع الوزارة بالتفصيل    البترول: 3 فئات لتكلفة توصيل الغاز الطبيعي للمنازل.. وإحداها تُدفَع كاملة    نجاح فريق طبي في استئصال طحال متضخم يزن 2 كجم من مريضة بمستشفى أسيوط العام    حقوق عين شمس تستضيف مؤتمر "صياغة العقود وآثارها على التحكيم" مايو المقبل    "بيت الزكاة والصدقات": وصول حملة دعم حفظة القرآن الكريم للقرى الأكثر احتياجًا بأسوان    علي جمعة: تعظيم النبي صلى الله عليه وسلم أمرٌ إلهي.. وما عظّمنا محمدًا إلا بأمر من الله    تكريم وقسم وكلمة الخريجين.. «طب بنها» تحتفل بتخريج الدفعة السابعة والثلاثين (صور)    صحة الدقهلية تناقش بروتوكول التحويل للحالات الطارئة بين مستشفيات المحافظة    الإفتاء تحسم الجدل حول مسألة سفر المرأة للحج بدون محرم    ماذا يحدث للجسم عند تناول تفاحة خضراء يوميًا؟    هيئة كبار العلماء السعودية: من حج بدون تصريح «آثم»    كارثة صحية أم توفير.. معايير إعادة استخدام زيت الطهي    سعر الحديد اليوم الأحد 27 -4-2025.. الطن ب40 ألف جنيه    خلال جلسة اليوم .. المحكمة التأديبية تقرر وقف طبيبة كفر الدوار عن العمل 6 أشهر وخصم نصف المرتب    البابا تواضروس يصلي قداس «أحد توما» في كنيسة أبو سيفين ببولندا    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



لماذا تعد تحديثات سلامة الأطفال من آبل مثيرة للجدل
نشر في الوفد يوم 13 - 08 - 2021

في الأسبوع الماضي ، قامت Apple بمعاينة عدد من التحديثات التي تهدف إلى تعزيز ميزات سلامة الأطفال على أجهزتها. من بينها: تقنية جديدة يمكنها مسح الصور على أجهزة المستخدمين للكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM). على الرغم من الإشادة بالتغيير على نطاق واسع من قبل بعض المشرعين والمدافعين عن سلامة الأطفال ، إلا أنه أثار معارضة فورية من العديد من خبراء الأمن والخصوصية ، الذين يقولون إن التحديث يرقى إلى تراجع شركة Apple عن التزامها بوضع خصوصية المستخدم فوق كل شيء آخر.
عارضت شركة Apple هذا التوصيف ، قائلة إن نهجها يوازن بين الخصوصية والحاجة إلى بذل المزيد لحماية الأطفال من خلال منع بعض المحتوى البغيض من الانتشار على نطاق أوسع.
ماذا أعلنت شركة آبل؟
أعلنت شركة Apple عن ثلاثة تحديثات منفصلة ، وكلها تندرج تحت مظلة "سلامة الأطفال". الميزة الأكثر أهمية - والتي حظيت بالجزء الأكبر من الاهتمام - هي الميزة التي ستقوم بمسح صور iCloud بحثًا عن CSAM المعروفة. تقارن الميزة ، المدمجة في صور iCloud ، صور المستخدم بقاعدة بيانات للمواد المحددة مسبقًا. إذا تم الكشف عن عدد معين من هذه الصور ، فسيؤدي ذلك إلى بدء عملية المراجعة. إذا تم التحقق من الصور من قبل المراجعين البشريين ، فستعلق Apple حساب iCloud هذا وتبلغ عنه إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).
قامت Apple أيضًا بمعاينة ميزات "أمان الاتصال" الجديدة لتطبيق الرسائل. يمكّن هذا التحديث تطبيق الرسائل من اكتشاف الوقت الذي يرسل فيه الأطفال صورًا جنسية صريحة أو يتلقونها. والأهم من ذلك ، أن هذه الميزة متاحة فقط للأطفال الذين يشكلون جزءًا من حساب العائلة ، والأمر متروك للوالدين للاشتراك.
سترسل ميزة رسائل Apple الجديدة للأطفال تحذيرات عند إرسال أو استلام صور جنسية صريحة.
إذا اختار الوالدان الاشتراك في الميزة ، فسيتم تنبيههما إذا شاهد طفل أقل من 13 عامًا إحدى هذه الصور. بالنسبة للأطفال الذين تزيد أعمارهم عن 13 عامًا ، سيعرض تطبيق الرسائل تحذيرًا عند تلقي صورة فاضحة ، ولكنه لن ينبه والديهم. على الرغم من أن الميزة جزء من تطبيق الرسائل ، ومنفصلة عن اكتشاف CSAM ، فقد لاحظت Apple أن الميزة لا تزال تلعب دورًا في إيقاف استغلال الأطفال ، لأنها قد تعطل الرسائل المفترسة.
أخيرًا ، تقوم Apple بتحديث Siri وقدرات البحث الخاصة به حتى تتمكن من "التدخل" في الاستفسارات حول CSAM. إذا سأل شخص ما عن كيفية الإبلاغ عن مواد إساءة الاستخدام ، على سبيل المثال ، فإن Siri سيوفر روابط لمصادر للقيام بذلك. إذا اكتشف أن شخصًا ما قد يبحث عن CSAM ، فسيتم عرض تحذير وسطح الموارد لتقديم المساعدة.
متى يحدث هذا وهل يمكنك الانسحاب؟
ستكون التغييرات جزءًا من iOS 15 ، والذي سيتم طرحه في وقت لاحق من هذا العام. يمكن للمستخدمين إلغاء الاشتراك بشكل فعال عن طريق تعطيل صور iCloud (يمكن العثور على إرشادات للقيام بذلك هنا). ومع ذلك ، يجب على أي شخص يقوم بتعطيل iCloud Photos أن يضع في اعتباره أنه قد يؤثر على قدرتك على الوصول إلى الصور عبر أجهزة متعددة.
إذن كيف يعمل هذا المسح الضوئي للصور؟
Apple ليست الشركة الوحيدة التي تقوم بمسح الصور للبحث عن CSAM. ومع ذلك ، فإن نهج Apple للقيام
بذلك فريد من نوعه. يعتمد اكتشاف CSAM على قاعدة بيانات للمواد المعروفة ، والتي تحتفظ بها NCMEC ومنظمات السلامة الأخرى. هذه الصور "مجزأة" (الاسم الرسمي لشركة Apple لهذا هو NeuralHash) - وهي عملية تحول الصور إلى رمز رقمي يسمح بالتعرف عليها ، حتى إذا تم تعديلها بطريقة ما ، مثل الاقتصاص أو إجراء تعديلات مرئية أخرى. كما ذكرنا سابقًا ، لا يعمل اكتشاف CSAM إلا إذا تم تمكين iCloud Photos. ما هو ملحوظ في نهج Apple هو أنه بدلاً من مطابقة الصور بمجرد إرسالها إلى السحابة - كما تفعل معظم الأنظمة الأساسية السحابية - قامت Apple بنقل هذه العملية إلى أجهزة المستخدمين.
وإليك كيفية عملها: يتم تخزين تجزئة CSAM المعروفة على الجهاز ، وتتم مقارنة الصور الموجودة على الجهاز بتلك التجزئة. يقوم جهاز iOS بعد ذلك بإنشاء "قسيمة أمان" مشفرة يتم إرسالها إلى iCloud مع الصورة. إذا وصل الجهاز إلى حد معين من CSAM ، فيمكن لشركة Apple فك تشفير قسائم الأمان وإجراء مراجعة يدوية لهذه الصور. لا تذكر Apple ما هي العتبة ، لكنها أوضحت أن صورة واحدة لن تؤدي إلى أي إجراء.
نشرت Apple أيضًا شرحًا تقنيًا مفصلاً للعملية هنا.
لماذا هذا مثير للجدل؟
أثار المدافعون عن الخصوصية والباحثون الأمنيون عددًا من المخاوف. أحد هذه الأسباب هو أن هذا يبدو وكأنه انعكاس كبير لشركة Apple ، التي رفضت قبل خمس سنوات طلب مكتب التحقيقات الفيدرالي بإلغاء قفل الهاتف ووضعت لوحات إعلانية تنص على "ما يحدث على جهاز iPhone الخاص بك يبقى على جهاز iPhone الخاص بك". بالنسبة للكثيرين ، فإن حقيقة أن Apple أنشأت نظامًا يمكنه التحقق بشكل استباقي من صورك بحثًا عن مواد غير قانونية وإحالتها إلى تطبيق القانون ، يبدو وكأنه خيانة لهذا الوعد.
في بيان ، وصفتها مؤسسة Electronic Frontier Foundation بأنها "تحول صادم للمستخدمين الذين اعتمدوا على قادة الشركة
ع في الخصوصية والأمان. " وبالمثل ، فإن Facebook - الذي قضى سنوات في مواجهة انتقادات من Apple بسبب أخطاء الخصوصية - قد واجه مشكلة مع نهج صانع iPhone تجاه CSAM. وصفه رئيس واتساب ، ويل كاثكارت ، بأنه "نظام مراقبة قامت شركة Apple ببنائه وتشغيله".
وبشكل أكثر تحديدًا ، هناك مخاوف حقيقية من أنه بمجرد إنشاء مثل هذا النظام ، يمكن أن تتعرض Apple للضغط - إما من قبل تطبيق القانون أو الحكومات - للبحث عن أنواع أخرى من المواد. في حين أن اكتشاف CSAM سيكون في الولايات المتحدة فقط للبدء ، فقد اقترحت Apple أنه قد يتوسع في النهاية إلى بلدان أخرى ويعمل مع منظمات أخرى. ليس من الصعب تخيل سيناريوهات يمكن فيها الضغط على Apple لبدء البحث عن أنواع أخرى من المحتوى غير القانوني في بعض البلدان. تم الاستشهاد بامتيازات الشركة في الصين - حيث قيل إن شركة
Apple "تنازلت" عن مراكز بياناتها للحكومة الصينية - كدليل على أن الشركة ليست محصنة ضد مطالب الحكومات الأقل ديمقراطية.
هناك أسئلة أخرى أيضًا. مثل ما إذا كان من الممكن أن يسيء شخص ما هذه العملية عن طريق إدخال CSAM بشكل ضار على جهاز شخص ما من أجل جعله يفقد الوصول إلى حساب iCloud الخاص به. أو ما إذا كان هناك سيناريو إيجابي خاطئ ، أو سيناريو آخر يؤدي إلى وضع علامة غير صحيحة على شخص ما بواسطة خوارزميات الشركة.
ماذا تقول شركة آبل عن هذا؟
نفت شركة Apple بشدة أنها تهين الخصوصية أو تتراجع عن التزاماتها السابقة. نشرت الشركة وثيقة ثانية تحاول فيها معالجة العديد من هذه الادعاءات.
فيما يتعلق بمسألة الإيجابيات الكاذبة ، أكدت Apple مرارًا وتكرارًا أنها تقارن صور المستخدمين فقط بمجموعة من المواد المعروفة لاستغلال الأطفال ، لذلك لن تؤدي صور أطفالك ، على سبيل المثال ، إلى إصدار بلاغ. بالإضافة إلى ذلك ، قالت شركة Apple إن احتمالات النتيجة الإيجابية الخاطئة تبلغ حوالي واحد في كل تريليون عندما تضع في الاعتبار حقيقة أنه يجب اكتشاف عدد معين من الصور من أجل إجراء مراجعة. بشكل حاسم ، على الرغم من ذلك ، تقول شركة Apple بشكل أساسي أنه علينا فقط أن نأخذ كلمتهم في هذا الشأن. كما كتب رئيس الأمن السابق في Facebook Alex Stamos والباحث الأمني Matthew Green في مقال رأي مشترك في New York Times ، لم تقدم Apple للباحثين الخارجيين رؤية واضحة لكيفية عمل كل هذا في الواقع.
تقول Apple أيضًا إن مراجعتها اليدوية ، التي تعتمد على المراجعين البشريين ، ستكون قادرة على اكتشاف ما إذا كان CSAM على الجهاز نتيجة لنوع من الهجوم الضار.
عندما يتعلق الأمر بالضغط من الحكومات أو وكالات إنفاذ القانون ، قالت الشركة أساسًا إنها سترفض التعاون مع مثل هذه الطلبات. وكتبت: "لقد واجهنا مطالب لبناء ونشر التغييرات التي فرضتها الحكومة والتي تقوض خصوصية المستخدمين من قبل ، ورفضنا هذه المطالب بثبات". سنواصل رفضهم في المستقبل. لنكن واضحين ، تقتصر هذه التقنية على اكتشاف CSAM المخزنة في iCloud ولن نوافق على أي طلب حكومي لتوسيعه ". على الرغم من أننا ، مرة أخرى ، علينا فقط أن نأخذ آبل في كلمتها هنا.
إذا كان الأمر مثيرًا للجدل ، فلماذا تفعل Apple ذلك؟
الإجابة المختصرة هي أن الشركة تعتقد أن هذا هو إيجاد التوازن الصحيح بين زيادة سلامة الأطفال وحماية الخصوصية. CSAM غير قانوني ، وفي الولايات المتحدة ، الشركات ملزمة بالإبلاغ عنها عندما تجدها. نتيجة لذلك ، تم دمج ميزات اكتشاف CSAM في الخدمات الشائعة لسنوات. ولكن على عكس الشركات الأخرى ، لم تتحقق Apple من CSAM في صور المستخدمين ، ويرجع ذلك إلى حد كبير إلى موقفها من الخصوصية. ليس من المستغرب أن يكون هذا مصدرًا رئيسيًا للإحباط لمنظمات سلامة الأطفال وإنفاذ القانون.
لوضع هذا في المنظور الصحيح ، في عام 2019 ، أبلغ Facebook عن 65 مليون حالة من CSAM على منصته ، وفقًا لصحيفة The New York Times. أبلغت Google عن 3.5 مليون صورة وفيديو ، بينما أبلغت Twitter و Snap عن "أكثر من 100.000" ، بينما أبلغت Apple من ناحية أخرى عن 3000 صورة.
هذا ليس لأن المتحرشين من الأطفال لا يستخدمون خدمات Apple ، ولكن لأن Apple لم تكن تقريبًا مثل بعض الأنظمة الأساسية الأخرى في البحث عن هذه المواد ، وميزات الخصوصية لديها جعلت من الصعب القيام بذلك. ما تغير الآن هو أن Apple تقول إنها توصلت إلى وسائل تقنية لاكتشاف مجموعات CSAM المعروفة في مكتبات صور iCloud التي لا تزال تحترم خصوصية المستخدمين. من الواضح أن هناك الكثير من الخلاف حول التفاصيل وما إذا كان أي نوع من أنظمة الكشف يمكن أن يكون حقًا "خاصًا". لكن شركة Apple قد حسبت أن المقايضة تستحق العناء. قال رئيس قسم الخصوصية في Apple لصحيفة The New York Times: "إذا كنت تخزن مجموعة من مواد CSAM ، نعم ، فهذا أمر سيء بالنسبة لك". "لكن بالنسبة لبقيةكم ، هذا لا يختلف."


انقر هنا لقراءة الخبر من مصدره.