الاستحقاق النيابى بدأ فعليًا القائمةالموحدة مشاورات حزبية مستمرة لخوض السباق الانتخابى    تداول امتحان التربية الدينية بجروبات الغش بعد توزيعه في لجان الثانوية العامة    يقترب نحو 51 جنيها.. قفزة كبيرة في سعر الدولار خلال تعاملات اليوم    أسعار اللحوم اليوم الأحد 15-6-2025 بأسواق محافظة البحيرة    إجراء انتخابات البورصة يوم الثلاثاء 24 يونيو بمقر شركة مصر لنشر المعلومات    إيران: الهجوم الإسرائيلي على منشآتنا النووية تجاوز للخطوط الحمراء    الأردن يعلن إعادة فتح مجاله الجوي بعد إجراء تقييم للمخاطر    مواعيد مباريات الأحد 15 يونيو - أتليتكو مدريد ضد سان جيرمان.. وبايرن يواجه أوكلاند    أشرف داري: الحظ حرمنا من الفوز على إنتر ميامي    وزير التعليم يتابع انطلاق امتحانات الثانوية العامة من غرفة العمليات    "أزهر الأقصر" يفتح باب التظلمات على نتائج الابتدائية والإعدادية لمدة 15 يوما    2923 طالبا يؤدون امتحانات الثانوية العامة فى 14 لجنة بمطروح.. فيديو    وفاة نجل الموسيقار صلاح الشرنوبي    فيلم سيكو سيكو يحقق أكثر من ربع مليون جنيه إيرادات ليلة أمس    «أمي منعتني من الشارع وجابتلي أول جيتار».. هاني عادل يستعيد ذكريات الطفولة    معهد وايزمان جنوب تل أبيب: تضرر عدد من منشآتنا جراء قصف إيرانى ليلة أمس    بعد جهود استمرت 5 سنوات متحف سيد درويش بالإسكندرية ميلاد جديد لفنان الشعب    محافظ أسيوط يفتتح وحدتي فصل مشتقات الدم والأشعة المقطعية بمستشفى الإيمان العام    معهد البحوث الطبية يعقد مؤتمره السنوي 17 يونيو    قصر العيني يحقق إنجازا طبيا فى الكشف المبكر عن مضاعفات فقر الدم المنجلي لدى الأطفال    سعر الدولار في البنوك المصرية اليوم الأحد 15 يونيو 2025    الجيش الإسرائيلى: اعترضنا 7 مسيرات انقضاضية إيرانية خلال الساعات الأخيرة    ثانوية عامة 2025.. إجراءات أمنية مشددة على أبواب لجان عين شمس    أولياء الأمور ينتظرون طلاب الثانوية العامة أمام لجان الامتحانات فى أسوان    حظك اليوم الأحد 15 يونيو وتوقعات الأبراج    طلاب الثانوية العامة 2025 يتوافدون على لجان الامتحانات لإجراء التفتيش الإلكتروني    برواتب تصل ل12 ألف جنيه.. العمل تعلن وظائف جديدة بشركة أدوية بالإسماعيلية    30 دقيقة تأخر في حركة القطارات على خط «القاهرة - الإسكندرية».. الأحد 15 يونيو    دعاء امتحانات الثانوية العامة.. أشهر الأدعية المستحبة للطلاب قبل دخول اللجان    اليوم.. مجلس النواب يناقش مشروع قانون الموازنة العامة للدولة للعام المالي الجديد    "زيزو الأعلى".. تعرف على تقييمات لاعبي الأهلي خلال الشوط الأول أمام إنتر ميامي    عودة القطاع الخاص تفتح خزائن الائتمان وتقود نمو محافظ الإقراض    جيش الاحتلال الإسرائيلي يستهدف مقر منظمة أبحاث دفاعية إيرانية    حارس إنتر ميامي الأفضل في افتتاح مونديال الأندية أمام الأهلي    محافظ قنا يشارك في الاحتفالية الرسمية لاستقبال الأنبا إغناطيوس بالمطرانية    مجدي الجلاد: الدولة المصرية واجهت كل الاختبارات والتحديات الكبيرة بحكمة شديدة    إعلام إسرائيلي: مصرع 5 وأكثر من 100 مصاب جراء القصف الإيراني على تل أبيب    متى تبدأ السنة الهجرية؟ هذا موعد أول أيام شهر محرم 1447 هجريًا    بداية العام الهجري الجديد.. تعرف على موعد إجازة رأس السنة الهجرية 1447    رقم تاريخي ل زيزو مع الأهلي ضد إنتر ميامي في كأس العالم للأندية    تجاوز 63%.. مؤشر تشغيل القروض للودائع يواصل التحليق لمستويات غير مسبوقة    مقتل ثلاثة على الأقل في هجمات إيرانية على إسرائيل    سبب دمارًا كبيرًا.. شاهد لحظة سقوط صاروخ إيراني في تل أبيب (فيديو)    الموعد المتوقع لإعلان نتيجة الدبلومات الفنية 2025؟.. رابط الاستعلام برقم الجلوس    اليوم.. الأزهر الشريف يفتح باب التقديم "لمسابقة السنة النبوية"    "رفقة سواريز".. أول ظهور لميسي قبل مباراة الأهلي وإنتر ميامي (صورة)    "العسل المصري".. يارا السكري تبهر متابعيها في أحدث ظهور    السفارة الأمريكية في البحرين تدعو موظفيها إلى توخي الحذر عقب الهجوم على إيران    الجلاد: الحكومة الحالية تفتقر للرؤية السياسية.. والتعديل الوزاري ضرورة    القانون يحظر رفع أو عرض العلم المصرى تالفا أو مستهلكا أو باهت الألوان    شهادة أم وضابطين وتقارير طبية.. قائمة أدلة تُدين المتهم في واقعة مدرسة الوراق (خاص)    كهرباء قنا تفتتح مركزًا جديدًا لخدمة العملاء وشحن العدادات بمنطقة الثانوية بنات    دون أدوية أو جراحة.. 5 طرق طبيعية لتفتيت وعلاج حصوات الكلى    ضمن مبادرة "100 مليون صحة".. صحة الفيوم تقدم خدمات المبادرات الرئاسية لأكثر من 18 ألف مواطن خلال عيد الأضحى    جامعة بدر تفتح باب التقديم المبكر بكافة الكليات لطلاب الثانوية العامة والأزهري والشهادات المعادلة    هاني رمزي: خبرات لاعبي الأهلي كلمة السر أمام إنتر ميامي    تعرف على مواقيت الصلاة اليوم الاحد 15-6-2025 في محافظة قنا    كأس العالم للأندية| «ريبيرو» يعقد محاضرة فنية للاعبي الأهلي استعدادًا لمواجهة إنتر ميامي    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



لماذا تعد تحديثات سلامة الأطفال من آبل مثيرة للجدل
نشر في الوفد يوم 13 - 08 - 2021

في الأسبوع الماضي ، قامت Apple بمعاينة عدد من التحديثات التي تهدف إلى تعزيز ميزات سلامة الأطفال على أجهزتها. من بينها: تقنية جديدة يمكنها مسح الصور على أجهزة المستخدمين للكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM). على الرغم من الإشادة بالتغيير على نطاق واسع من قبل بعض المشرعين والمدافعين عن سلامة الأطفال ، إلا أنه أثار معارضة فورية من العديد من خبراء الأمن والخصوصية ، الذين يقولون إن التحديث يرقى إلى تراجع شركة Apple عن التزامها بوضع خصوصية المستخدم فوق كل شيء آخر.
عارضت شركة Apple هذا التوصيف ، قائلة إن نهجها يوازن بين الخصوصية والحاجة إلى بذل المزيد لحماية الأطفال من خلال منع بعض المحتوى البغيض من الانتشار على نطاق أوسع.
ماذا أعلنت شركة آبل؟
أعلنت شركة Apple عن ثلاثة تحديثات منفصلة ، وكلها تندرج تحت مظلة "سلامة الأطفال". الميزة الأكثر أهمية - والتي حظيت بالجزء الأكبر من الاهتمام - هي الميزة التي ستقوم بمسح صور iCloud بحثًا عن CSAM المعروفة. تقارن الميزة ، المدمجة في صور iCloud ، صور المستخدم بقاعدة بيانات للمواد المحددة مسبقًا. إذا تم الكشف عن عدد معين من هذه الصور ، فسيؤدي ذلك إلى بدء عملية المراجعة. إذا تم التحقق من الصور من قبل المراجعين البشريين ، فستعلق Apple حساب iCloud هذا وتبلغ عنه إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).
قامت Apple أيضًا بمعاينة ميزات "أمان الاتصال" الجديدة لتطبيق الرسائل. يمكّن هذا التحديث تطبيق الرسائل من اكتشاف الوقت الذي يرسل فيه الأطفال صورًا جنسية صريحة أو يتلقونها. والأهم من ذلك ، أن هذه الميزة متاحة فقط للأطفال الذين يشكلون جزءًا من حساب العائلة ، والأمر متروك للوالدين للاشتراك.
سترسل ميزة رسائل Apple الجديدة للأطفال تحذيرات عند إرسال أو استلام صور جنسية صريحة.
إذا اختار الوالدان الاشتراك في الميزة ، فسيتم تنبيههما إذا شاهد طفل أقل من 13 عامًا إحدى هذه الصور. بالنسبة للأطفال الذين تزيد أعمارهم عن 13 عامًا ، سيعرض تطبيق الرسائل تحذيرًا عند تلقي صورة فاضحة ، ولكنه لن ينبه والديهم. على الرغم من أن الميزة جزء من تطبيق الرسائل ، ومنفصلة عن اكتشاف CSAM ، فقد لاحظت Apple أن الميزة لا تزال تلعب دورًا في إيقاف استغلال الأطفال ، لأنها قد تعطل الرسائل المفترسة.
أخيرًا ، تقوم Apple بتحديث Siri وقدرات البحث الخاصة به حتى تتمكن من "التدخل" في الاستفسارات حول CSAM. إذا سأل شخص ما عن كيفية الإبلاغ عن مواد إساءة الاستخدام ، على سبيل المثال ، فإن Siri سيوفر روابط لمصادر للقيام بذلك. إذا اكتشف أن شخصًا ما قد يبحث عن CSAM ، فسيتم عرض تحذير وسطح الموارد لتقديم المساعدة.
متى يحدث هذا وهل يمكنك الانسحاب؟
ستكون التغييرات جزءًا من iOS 15 ، والذي سيتم طرحه في وقت لاحق من هذا العام. يمكن للمستخدمين إلغاء الاشتراك بشكل فعال عن طريق تعطيل صور iCloud (يمكن العثور على إرشادات للقيام بذلك هنا). ومع ذلك ، يجب على أي شخص يقوم بتعطيل iCloud Photos أن يضع في اعتباره أنه قد يؤثر على قدرتك على الوصول إلى الصور عبر أجهزة متعددة.
إذن كيف يعمل هذا المسح الضوئي للصور؟
Apple ليست الشركة الوحيدة التي تقوم بمسح الصور للبحث عن CSAM. ومع ذلك ، فإن نهج Apple للقيام
بذلك فريد من نوعه. يعتمد اكتشاف CSAM على قاعدة بيانات للمواد المعروفة ، والتي تحتفظ بها NCMEC ومنظمات السلامة الأخرى. هذه الصور "مجزأة" (الاسم الرسمي لشركة Apple لهذا هو NeuralHash) - وهي عملية تحول الصور إلى رمز رقمي يسمح بالتعرف عليها ، حتى إذا تم تعديلها بطريقة ما ، مثل الاقتصاص أو إجراء تعديلات مرئية أخرى. كما ذكرنا سابقًا ، لا يعمل اكتشاف CSAM إلا إذا تم تمكين iCloud Photos. ما هو ملحوظ في نهج Apple هو أنه بدلاً من مطابقة الصور بمجرد إرسالها إلى السحابة - كما تفعل معظم الأنظمة الأساسية السحابية - قامت Apple بنقل هذه العملية إلى أجهزة المستخدمين.
وإليك كيفية عملها: يتم تخزين تجزئة CSAM المعروفة على الجهاز ، وتتم مقارنة الصور الموجودة على الجهاز بتلك التجزئة. يقوم جهاز iOS بعد ذلك بإنشاء "قسيمة أمان" مشفرة يتم إرسالها إلى iCloud مع الصورة. إذا وصل الجهاز إلى حد معين من CSAM ، فيمكن لشركة Apple فك تشفير قسائم الأمان وإجراء مراجعة يدوية لهذه الصور. لا تذكر Apple ما هي العتبة ، لكنها أوضحت أن صورة واحدة لن تؤدي إلى أي إجراء.
نشرت Apple أيضًا شرحًا تقنيًا مفصلاً للعملية هنا.
لماذا هذا مثير للجدل؟
أثار المدافعون عن الخصوصية والباحثون الأمنيون عددًا من المخاوف. أحد هذه الأسباب هو أن هذا يبدو وكأنه انعكاس كبير لشركة Apple ، التي رفضت قبل خمس سنوات طلب مكتب التحقيقات الفيدرالي بإلغاء قفل الهاتف ووضعت لوحات إعلانية تنص على "ما يحدث على جهاز iPhone الخاص بك يبقى على جهاز iPhone الخاص بك". بالنسبة للكثيرين ، فإن حقيقة أن Apple أنشأت نظامًا يمكنه التحقق بشكل استباقي من صورك بحثًا عن مواد غير قانونية وإحالتها إلى تطبيق القانون ، يبدو وكأنه خيانة لهذا الوعد.
في بيان ، وصفتها مؤسسة Electronic Frontier Foundation بأنها "تحول صادم للمستخدمين الذين اعتمدوا على قادة الشركة
ع في الخصوصية والأمان. " وبالمثل ، فإن Facebook - الذي قضى سنوات في مواجهة انتقادات من Apple بسبب أخطاء الخصوصية - قد واجه مشكلة مع نهج صانع iPhone تجاه CSAM. وصفه رئيس واتساب ، ويل كاثكارت ، بأنه "نظام مراقبة قامت شركة Apple ببنائه وتشغيله".
وبشكل أكثر تحديدًا ، هناك مخاوف حقيقية من أنه بمجرد إنشاء مثل هذا النظام ، يمكن أن تتعرض Apple للضغط - إما من قبل تطبيق القانون أو الحكومات - للبحث عن أنواع أخرى من المواد. في حين أن اكتشاف CSAM سيكون في الولايات المتحدة فقط للبدء ، فقد اقترحت Apple أنه قد يتوسع في النهاية إلى بلدان أخرى ويعمل مع منظمات أخرى. ليس من الصعب تخيل سيناريوهات يمكن فيها الضغط على Apple لبدء البحث عن أنواع أخرى من المحتوى غير القانوني في بعض البلدان. تم الاستشهاد بامتيازات الشركة في الصين - حيث قيل إن شركة
Apple "تنازلت" عن مراكز بياناتها للحكومة الصينية - كدليل على أن الشركة ليست محصنة ضد مطالب الحكومات الأقل ديمقراطية.
هناك أسئلة أخرى أيضًا. مثل ما إذا كان من الممكن أن يسيء شخص ما هذه العملية عن طريق إدخال CSAM بشكل ضار على جهاز شخص ما من أجل جعله يفقد الوصول إلى حساب iCloud الخاص به. أو ما إذا كان هناك سيناريو إيجابي خاطئ ، أو سيناريو آخر يؤدي إلى وضع علامة غير صحيحة على شخص ما بواسطة خوارزميات الشركة.
ماذا تقول شركة آبل عن هذا؟
نفت شركة Apple بشدة أنها تهين الخصوصية أو تتراجع عن التزاماتها السابقة. نشرت الشركة وثيقة ثانية تحاول فيها معالجة العديد من هذه الادعاءات.
فيما يتعلق بمسألة الإيجابيات الكاذبة ، أكدت Apple مرارًا وتكرارًا أنها تقارن صور المستخدمين فقط بمجموعة من المواد المعروفة لاستغلال الأطفال ، لذلك لن تؤدي صور أطفالك ، على سبيل المثال ، إلى إصدار بلاغ. بالإضافة إلى ذلك ، قالت شركة Apple إن احتمالات النتيجة الإيجابية الخاطئة تبلغ حوالي واحد في كل تريليون عندما تضع في الاعتبار حقيقة أنه يجب اكتشاف عدد معين من الصور من أجل إجراء مراجعة. بشكل حاسم ، على الرغم من ذلك ، تقول شركة Apple بشكل أساسي أنه علينا فقط أن نأخذ كلمتهم في هذا الشأن. كما كتب رئيس الأمن السابق في Facebook Alex Stamos والباحث الأمني Matthew Green في مقال رأي مشترك في New York Times ، لم تقدم Apple للباحثين الخارجيين رؤية واضحة لكيفية عمل كل هذا في الواقع.
تقول Apple أيضًا إن مراجعتها اليدوية ، التي تعتمد على المراجعين البشريين ، ستكون قادرة على اكتشاف ما إذا كان CSAM على الجهاز نتيجة لنوع من الهجوم الضار.
عندما يتعلق الأمر بالضغط من الحكومات أو وكالات إنفاذ القانون ، قالت الشركة أساسًا إنها سترفض التعاون مع مثل هذه الطلبات. وكتبت: "لقد واجهنا مطالب لبناء ونشر التغييرات التي فرضتها الحكومة والتي تقوض خصوصية المستخدمين من قبل ، ورفضنا هذه المطالب بثبات". سنواصل رفضهم في المستقبل. لنكن واضحين ، تقتصر هذه التقنية على اكتشاف CSAM المخزنة في iCloud ولن نوافق على أي طلب حكومي لتوسيعه ". على الرغم من أننا ، مرة أخرى ، علينا فقط أن نأخذ آبل في كلمتها هنا.
إذا كان الأمر مثيرًا للجدل ، فلماذا تفعل Apple ذلك؟
الإجابة المختصرة هي أن الشركة تعتقد أن هذا هو إيجاد التوازن الصحيح بين زيادة سلامة الأطفال وحماية الخصوصية. CSAM غير قانوني ، وفي الولايات المتحدة ، الشركات ملزمة بالإبلاغ عنها عندما تجدها. نتيجة لذلك ، تم دمج ميزات اكتشاف CSAM في الخدمات الشائعة لسنوات. ولكن على عكس الشركات الأخرى ، لم تتحقق Apple من CSAM في صور المستخدمين ، ويرجع ذلك إلى حد كبير إلى موقفها من الخصوصية. ليس من المستغرب أن يكون هذا مصدرًا رئيسيًا للإحباط لمنظمات سلامة الأطفال وإنفاذ القانون.
لوضع هذا في المنظور الصحيح ، في عام 2019 ، أبلغ Facebook عن 65 مليون حالة من CSAM على منصته ، وفقًا لصحيفة The New York Times. أبلغت Google عن 3.5 مليون صورة وفيديو ، بينما أبلغت Twitter و Snap عن "أكثر من 100.000" ، بينما أبلغت Apple من ناحية أخرى عن 3000 صورة.
هذا ليس لأن المتحرشين من الأطفال لا يستخدمون خدمات Apple ، ولكن لأن Apple لم تكن تقريبًا مثل بعض الأنظمة الأساسية الأخرى في البحث عن هذه المواد ، وميزات الخصوصية لديها جعلت من الصعب القيام بذلك. ما تغير الآن هو أن Apple تقول إنها توصلت إلى وسائل تقنية لاكتشاف مجموعات CSAM المعروفة في مكتبات صور iCloud التي لا تزال تحترم خصوصية المستخدمين. من الواضح أن هناك الكثير من الخلاف حول التفاصيل وما إذا كان أي نوع من أنظمة الكشف يمكن أن يكون حقًا "خاصًا". لكن شركة Apple قد حسبت أن المقايضة تستحق العناء. قال رئيس قسم الخصوصية في Apple لصحيفة The New York Times: "إذا كنت تخزن مجموعة من مواد CSAM ، نعم ، فهذا أمر سيء بالنسبة لك". "لكن بالنسبة لبقيةكم ، هذا لا يختلف."


انقر هنا لقراءة الخبر من مصدره.