«الوطنية للانتخابات» تشيد بدور الإعلام والناخبات في تسهيل عملية التصويت    رئيس الوزراء يستعرض مع «المشاط» نتائج أعمال اللجنة الاستشارية للاقتصاد الرقمي    «المشاط» تؤكد أهمية مشروعات تحلية ومعالجة المياه في مصر    محافظ المنوفية: صرف مساعدات مالية وعينية لعدد من الحالات الإنسانية    عاجل| بنك مصر يخفض سعر الفائدة 1% على حسابي المعاشات وسوبر كاش    وزير المالية: توسيع القاعدة الاقتصادية والإنتاجية والضريبية هدف استراتيجي للدولة    عاجل| تعطيل العمل بكافة البنوك في مصر يوم الخميس الموافق الأول من يناير 2026    إكسترا نيوز: مساعدات تعبر رفح إلى غزة وسط أمطار غزيرة    الأونروا: سكان غزة يعيشون في خيام بالية مغمورة بالمياه    قطر تستعد لتنظيم دورة ودية لمنتخبات كأس العالم 2026.. هل يشارك الفراعنة؟    ولادة عسيرة للاستحقاقات الدستورية العراقية قبيل عقد أولى جلسات البرلمان الجديد    القوات الروسية تحرر 5 بلدات في مقاطعة زابوروجيه وجمهورية دونيتسك الشعبية    مدرب زامبيا: درسنا المغرب جيدًا والمواجهة لن تكون سهلة    أمم إفريقيا - مؤتمر بوميل: منتخب مصر يمتلك فريقين.. وعلينا التركيز على أنفسنا    الشباب والرياضة بالمنوفية: فتح باب القبول للانضمام إلى مشروع البطل الأولمبى    17 يناير.. المديريات التعليمية تنتهي من الاستعداد لامتحانات الشهادة الإعدادية    ضبط 1000 كجم دقيق و250 كجم ملح في حملة تموينية بالقليوبية    ضبط شخصين بسوهاج لتوزيعهما أموالاً على الناخبين لدفعهم للتصويت    حقيقة اختطاف أجنبي بالقاهرة.. الداخلية تكشف تفاصيل الواقعة    فن الحرب، يوسف الشريف ينشر أول صور من كواليس مسلسله الجديد    رمضان 2026| صراعات عائلية تهدد الإمبراطورية لماجد المصري في «أولاد الراعي»    رد ناري من عمر الفيشاوي على أزمة شقيقه مع المصورين في عزاء والدتهم    تعرف على مواقيت الصلاة اليوم فى سوهاج    هيئة الرعاية الصحية تستعرض إنجازات التأمين الصحي الشامل بمحافظات إقليم القناة    الصحة: الشيخ زايد التخصصي يجري قساطر قلبية معقدة تتجاوز تكلفتها مليون جنيه على نفقة الدولة    مد غزة ب7400 طن مساعدات و42 ألف بطانية ضمن قافلة زاد العزة ال103    هل تستعد OpenAI لإدخال الإعلانات إلى شات جي بي تي؟    تعرف على مواقيت الصلاة اليوم الاحد 28-12-2025 في محافظة الأقصر    وزير الصناعة يزور مقر سلطة الموانئ والمناطق الحرة في جيبوتي ويشهد توقيع عدد من الاتفاقيات    أمم أفريقيا 2025.. تشكيل بوركينا فاسو المتوقع أمام الجزائر    21 مواطنًا يحصلون على جنسيات أجنبية مع الاحتفاظ بالجنسية المصرية    العراق يتسلم 6 مروحيات "كاراكال" فرنسية لتعزيز الدفاع الجوي    الناخبون يتوافدون للتصويت بجولة الإعادة في 19 دائرة ب7 محافظات    8 أبطال بجنوب سيناء يصعدون للمشاركة في تصفيات أولمبياد المحافظات الحدودية بالوادي الجديد    يسبب سرطان المعدة والسمنة.. وزارة الصحة تحذر من الإفراط فى تناول الملح    أول تعليق من حمو بيكا بعد انتهاء عقوبته في قضية حيازة سلاح أبيض    اليوم.. جنازة المخرج داوود عبدالسيد من كنيسة مارمرقس بمصر الجديدة    2026 .. عام الأسئلة الكبرى والأمنيات المشروعة    كيف ينتج تنظيم الإخوان ازدواجيته.. ثم يخفيها وينكرها؟    الزمالك يخشى مفاجآت كأس مصر في اختبار أمام بلدية المحلة    2025.. عام المشروعات الاستثنائية    حبس مها الصغير شهر بتهمة سرقة لوحات لفنانين أوروبيين وتغريمها 10 آلاف جنيه    كاسات الزبادي بالفواكه والمكسرات والعسل، فطار خفيف أو سناك مشبع    شريف الشربيني يشارك في اجتماع لجنة الإسكان بمجلس الشيوخ اليوم    إصابة شخصان إثر تصادم ميكروباص مع توك توك بقنا    لافروف: القوات الأوروبية في أوكرانيا أهداف مشروعة للجيش الروسي    عبد الفتاح عبد المنعم: الصحافة المصرية متضامنة بشكل كامل مع الشعب الفلسطينى    محمد معيط: العجز في الموازنة 1.5 تريليون جنيه.. وأنا مضطر علشان البلد تفضل ماشية استلف هذا المبلغ    نيللي كريم وداليا مصطفى تسيطران على جوجل: شائعات ونجاحات تُشعل الجدل    فيديو جراف| تسعة أفلام صنعت «فيلسوف السينما».. وداعًا «داود عبد السيد»    عضو بالأرصاد: توقعات بأمطار متوسطة على السواحل الشمالية الشرقية اليوم    يوفنتوس يقترب خطوة من قمة الدوري الإيطالي بثنائية ضد بيزا    واتكينز بعدما سجل ثنائية في تشيلسي: لم ألعب بأفضل شكل    هل فرط جمال عبد الناصر في السودان؟.. عبد الحليم قنديل يُجيب    كيف يؤثر التمر على الهضم والسكر ؟    هل يجوز المسح على الخُفِّ خشية برد الشتاء؟ وما كيفية ذلك ومدته؟.. الإفتاء تجيب    المستشار حامد شعبان سليم يكتب عن : المطلوب " انابة " بحكم " المنتهى " !?    أخبار × 24 ساعة.. موعد استطلاع هلال شعبان 1447 هجريا وأول أيامه فلكيا    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



لماذا تعد تحديثات سلامة الأطفال من آبل مثيرة للجدل
نشر في الوفد يوم 13 - 08 - 2021

في الأسبوع الماضي ، قامت Apple بمعاينة عدد من التحديثات التي تهدف إلى تعزيز ميزات سلامة الأطفال على أجهزتها. من بينها: تقنية جديدة يمكنها مسح الصور على أجهزة المستخدمين للكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM). على الرغم من الإشادة بالتغيير على نطاق واسع من قبل بعض المشرعين والمدافعين عن سلامة الأطفال ، إلا أنه أثار معارضة فورية من العديد من خبراء الأمن والخصوصية ، الذين يقولون إن التحديث يرقى إلى تراجع شركة Apple عن التزامها بوضع خصوصية المستخدم فوق كل شيء آخر.
عارضت شركة Apple هذا التوصيف ، قائلة إن نهجها يوازن بين الخصوصية والحاجة إلى بذل المزيد لحماية الأطفال من خلال منع بعض المحتوى البغيض من الانتشار على نطاق أوسع.
ماذا أعلنت شركة آبل؟
أعلنت شركة Apple عن ثلاثة تحديثات منفصلة ، وكلها تندرج تحت مظلة "سلامة الأطفال". الميزة الأكثر أهمية - والتي حظيت بالجزء الأكبر من الاهتمام - هي الميزة التي ستقوم بمسح صور iCloud بحثًا عن CSAM المعروفة. تقارن الميزة ، المدمجة في صور iCloud ، صور المستخدم بقاعدة بيانات للمواد المحددة مسبقًا. إذا تم الكشف عن عدد معين من هذه الصور ، فسيؤدي ذلك إلى بدء عملية المراجعة. إذا تم التحقق من الصور من قبل المراجعين البشريين ، فستعلق Apple حساب iCloud هذا وتبلغ عنه إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).
قامت Apple أيضًا بمعاينة ميزات "أمان الاتصال" الجديدة لتطبيق الرسائل. يمكّن هذا التحديث تطبيق الرسائل من اكتشاف الوقت الذي يرسل فيه الأطفال صورًا جنسية صريحة أو يتلقونها. والأهم من ذلك ، أن هذه الميزة متاحة فقط للأطفال الذين يشكلون جزءًا من حساب العائلة ، والأمر متروك للوالدين للاشتراك.
سترسل ميزة رسائل Apple الجديدة للأطفال تحذيرات عند إرسال أو استلام صور جنسية صريحة.
إذا اختار الوالدان الاشتراك في الميزة ، فسيتم تنبيههما إذا شاهد طفل أقل من 13 عامًا إحدى هذه الصور. بالنسبة للأطفال الذين تزيد أعمارهم عن 13 عامًا ، سيعرض تطبيق الرسائل تحذيرًا عند تلقي صورة فاضحة ، ولكنه لن ينبه والديهم. على الرغم من أن الميزة جزء من تطبيق الرسائل ، ومنفصلة عن اكتشاف CSAM ، فقد لاحظت Apple أن الميزة لا تزال تلعب دورًا في إيقاف استغلال الأطفال ، لأنها قد تعطل الرسائل المفترسة.
أخيرًا ، تقوم Apple بتحديث Siri وقدرات البحث الخاصة به حتى تتمكن من "التدخل" في الاستفسارات حول CSAM. إذا سأل شخص ما عن كيفية الإبلاغ عن مواد إساءة الاستخدام ، على سبيل المثال ، فإن Siri سيوفر روابط لمصادر للقيام بذلك. إذا اكتشف أن شخصًا ما قد يبحث عن CSAM ، فسيتم عرض تحذير وسطح الموارد لتقديم المساعدة.
متى يحدث هذا وهل يمكنك الانسحاب؟
ستكون التغييرات جزءًا من iOS 15 ، والذي سيتم طرحه في وقت لاحق من هذا العام. يمكن للمستخدمين إلغاء الاشتراك بشكل فعال عن طريق تعطيل صور iCloud (يمكن العثور على إرشادات للقيام بذلك هنا). ومع ذلك ، يجب على أي شخص يقوم بتعطيل iCloud Photos أن يضع في اعتباره أنه قد يؤثر على قدرتك على الوصول إلى الصور عبر أجهزة متعددة.
إذن كيف يعمل هذا المسح الضوئي للصور؟
Apple ليست الشركة الوحيدة التي تقوم بمسح الصور للبحث عن CSAM. ومع ذلك ، فإن نهج Apple للقيام
بذلك فريد من نوعه. يعتمد اكتشاف CSAM على قاعدة بيانات للمواد المعروفة ، والتي تحتفظ بها NCMEC ومنظمات السلامة الأخرى. هذه الصور "مجزأة" (الاسم الرسمي لشركة Apple لهذا هو NeuralHash) - وهي عملية تحول الصور إلى رمز رقمي يسمح بالتعرف عليها ، حتى إذا تم تعديلها بطريقة ما ، مثل الاقتصاص أو إجراء تعديلات مرئية أخرى. كما ذكرنا سابقًا ، لا يعمل اكتشاف CSAM إلا إذا تم تمكين iCloud Photos. ما هو ملحوظ في نهج Apple هو أنه بدلاً من مطابقة الصور بمجرد إرسالها إلى السحابة - كما تفعل معظم الأنظمة الأساسية السحابية - قامت Apple بنقل هذه العملية إلى أجهزة المستخدمين.
وإليك كيفية عملها: يتم تخزين تجزئة CSAM المعروفة على الجهاز ، وتتم مقارنة الصور الموجودة على الجهاز بتلك التجزئة. يقوم جهاز iOS بعد ذلك بإنشاء "قسيمة أمان" مشفرة يتم إرسالها إلى iCloud مع الصورة. إذا وصل الجهاز إلى حد معين من CSAM ، فيمكن لشركة Apple فك تشفير قسائم الأمان وإجراء مراجعة يدوية لهذه الصور. لا تذكر Apple ما هي العتبة ، لكنها أوضحت أن صورة واحدة لن تؤدي إلى أي إجراء.
نشرت Apple أيضًا شرحًا تقنيًا مفصلاً للعملية هنا.
لماذا هذا مثير للجدل؟
أثار المدافعون عن الخصوصية والباحثون الأمنيون عددًا من المخاوف. أحد هذه الأسباب هو أن هذا يبدو وكأنه انعكاس كبير لشركة Apple ، التي رفضت قبل خمس سنوات طلب مكتب التحقيقات الفيدرالي بإلغاء قفل الهاتف ووضعت لوحات إعلانية تنص على "ما يحدث على جهاز iPhone الخاص بك يبقى على جهاز iPhone الخاص بك". بالنسبة للكثيرين ، فإن حقيقة أن Apple أنشأت نظامًا يمكنه التحقق بشكل استباقي من صورك بحثًا عن مواد غير قانونية وإحالتها إلى تطبيق القانون ، يبدو وكأنه خيانة لهذا الوعد.
في بيان ، وصفتها مؤسسة Electronic Frontier Foundation بأنها "تحول صادم للمستخدمين الذين اعتمدوا على قادة الشركة
ع في الخصوصية والأمان. " وبالمثل ، فإن Facebook - الذي قضى سنوات في مواجهة انتقادات من Apple بسبب أخطاء الخصوصية - قد واجه مشكلة مع نهج صانع iPhone تجاه CSAM. وصفه رئيس واتساب ، ويل كاثكارت ، بأنه "نظام مراقبة قامت شركة Apple ببنائه وتشغيله".
وبشكل أكثر تحديدًا ، هناك مخاوف حقيقية من أنه بمجرد إنشاء مثل هذا النظام ، يمكن أن تتعرض Apple للضغط - إما من قبل تطبيق القانون أو الحكومات - للبحث عن أنواع أخرى من المواد. في حين أن اكتشاف CSAM سيكون في الولايات المتحدة فقط للبدء ، فقد اقترحت Apple أنه قد يتوسع في النهاية إلى بلدان أخرى ويعمل مع منظمات أخرى. ليس من الصعب تخيل سيناريوهات يمكن فيها الضغط على Apple لبدء البحث عن أنواع أخرى من المحتوى غير القانوني في بعض البلدان. تم الاستشهاد بامتيازات الشركة في الصين - حيث قيل إن شركة
Apple "تنازلت" عن مراكز بياناتها للحكومة الصينية - كدليل على أن الشركة ليست محصنة ضد مطالب الحكومات الأقل ديمقراطية.
هناك أسئلة أخرى أيضًا. مثل ما إذا كان من الممكن أن يسيء شخص ما هذه العملية عن طريق إدخال CSAM بشكل ضار على جهاز شخص ما من أجل جعله يفقد الوصول إلى حساب iCloud الخاص به. أو ما إذا كان هناك سيناريو إيجابي خاطئ ، أو سيناريو آخر يؤدي إلى وضع علامة غير صحيحة على شخص ما بواسطة خوارزميات الشركة.
ماذا تقول شركة آبل عن هذا؟
نفت شركة Apple بشدة أنها تهين الخصوصية أو تتراجع عن التزاماتها السابقة. نشرت الشركة وثيقة ثانية تحاول فيها معالجة العديد من هذه الادعاءات.
فيما يتعلق بمسألة الإيجابيات الكاذبة ، أكدت Apple مرارًا وتكرارًا أنها تقارن صور المستخدمين فقط بمجموعة من المواد المعروفة لاستغلال الأطفال ، لذلك لن تؤدي صور أطفالك ، على سبيل المثال ، إلى إصدار بلاغ. بالإضافة إلى ذلك ، قالت شركة Apple إن احتمالات النتيجة الإيجابية الخاطئة تبلغ حوالي واحد في كل تريليون عندما تضع في الاعتبار حقيقة أنه يجب اكتشاف عدد معين من الصور من أجل إجراء مراجعة. بشكل حاسم ، على الرغم من ذلك ، تقول شركة Apple بشكل أساسي أنه علينا فقط أن نأخذ كلمتهم في هذا الشأن. كما كتب رئيس الأمن السابق في Facebook Alex Stamos والباحث الأمني Matthew Green في مقال رأي مشترك في New York Times ، لم تقدم Apple للباحثين الخارجيين رؤية واضحة لكيفية عمل كل هذا في الواقع.
تقول Apple أيضًا إن مراجعتها اليدوية ، التي تعتمد على المراجعين البشريين ، ستكون قادرة على اكتشاف ما إذا كان CSAM على الجهاز نتيجة لنوع من الهجوم الضار.
عندما يتعلق الأمر بالضغط من الحكومات أو وكالات إنفاذ القانون ، قالت الشركة أساسًا إنها سترفض التعاون مع مثل هذه الطلبات. وكتبت: "لقد واجهنا مطالب لبناء ونشر التغييرات التي فرضتها الحكومة والتي تقوض خصوصية المستخدمين من قبل ، ورفضنا هذه المطالب بثبات". سنواصل رفضهم في المستقبل. لنكن واضحين ، تقتصر هذه التقنية على اكتشاف CSAM المخزنة في iCloud ولن نوافق على أي طلب حكومي لتوسيعه ". على الرغم من أننا ، مرة أخرى ، علينا فقط أن نأخذ آبل في كلمتها هنا.
إذا كان الأمر مثيرًا للجدل ، فلماذا تفعل Apple ذلك؟
الإجابة المختصرة هي أن الشركة تعتقد أن هذا هو إيجاد التوازن الصحيح بين زيادة سلامة الأطفال وحماية الخصوصية. CSAM غير قانوني ، وفي الولايات المتحدة ، الشركات ملزمة بالإبلاغ عنها عندما تجدها. نتيجة لذلك ، تم دمج ميزات اكتشاف CSAM في الخدمات الشائعة لسنوات. ولكن على عكس الشركات الأخرى ، لم تتحقق Apple من CSAM في صور المستخدمين ، ويرجع ذلك إلى حد كبير إلى موقفها من الخصوصية. ليس من المستغرب أن يكون هذا مصدرًا رئيسيًا للإحباط لمنظمات سلامة الأطفال وإنفاذ القانون.
لوضع هذا في المنظور الصحيح ، في عام 2019 ، أبلغ Facebook عن 65 مليون حالة من CSAM على منصته ، وفقًا لصحيفة The New York Times. أبلغت Google عن 3.5 مليون صورة وفيديو ، بينما أبلغت Twitter و Snap عن "أكثر من 100.000" ، بينما أبلغت Apple من ناحية أخرى عن 3000 صورة.
هذا ليس لأن المتحرشين من الأطفال لا يستخدمون خدمات Apple ، ولكن لأن Apple لم تكن تقريبًا مثل بعض الأنظمة الأساسية الأخرى في البحث عن هذه المواد ، وميزات الخصوصية لديها جعلت من الصعب القيام بذلك. ما تغير الآن هو أن Apple تقول إنها توصلت إلى وسائل تقنية لاكتشاف مجموعات CSAM المعروفة في مكتبات صور iCloud التي لا تزال تحترم خصوصية المستخدمين. من الواضح أن هناك الكثير من الخلاف حول التفاصيل وما إذا كان أي نوع من أنظمة الكشف يمكن أن يكون حقًا "خاصًا". لكن شركة Apple قد حسبت أن المقايضة تستحق العناء. قال رئيس قسم الخصوصية في Apple لصحيفة The New York Times: "إذا كنت تخزن مجموعة من مواد CSAM ، نعم ، فهذا أمر سيء بالنسبة لك". "لكن بالنسبة لبقيةكم ، هذا لا يختلف."


انقر هنا لقراءة الخبر من مصدره.