الأحد 29 أغسطس 2021 12:29 ص

استجابت "أبل" للقلق المتزايد الذي أبداه خبراء الخصوصية والمنافسون بشأن خاصية "آيفون" الجديدة التي تقوم بعمل مسح على صور المستخدمين بحثًا عن صور استغلال جنسي للأطفال.

وأُعلن عن هذه الميزة في الأسبوع الماضي، وسببت الكثير من اللغط والمخاوف منذ ذلك الحين، مع أن "أبل" قالت إن الميزة قد تم تصميمها مع مراعاة الخصوصية وأن التحليل الفعلي يحدث على جهاز "آيفون" الخاص بالشخص وليس على أنظمة "أبل".

وأضافت أن الشركة لن تكون قادرة على رؤية الصور إلا إذا تبين أنها متشابهة بدرجة كافية مع قاعدة بيانات موجودة لصور الاعتداء الجنسي على الأطفال.

لكن ناشطي الخصوصية والأمن يقولون إنها يمكن أن تضعف الحماية الأساسية على "آيفون" ويمكن إساءة استخدامها لمهاجمة المستخدمين الأبرياء.

وأشار المنتقدون إلى أن الحكومات يمكن أن تجبر شركة "آبل" على إضافة أنواع أخرى من الصور إلى قاعدة بياناتها، بحيث يمكن استخدام الأداة من قبل الأنظمة الاستبدادية لتعقب المعارضين، على سبيل المثال.

وتشمل المخاوف الأخرى احتمال حدوث خطأ في النظام والإبلاغ عن أنواع أخرى من الصور، مما يؤدي بشكل أساسي إلى إزالة الخصوصية من صور بريئة تمامًا.

ردت شركة "أبل" على هذه الانتقادات في مستند جديد للأسئلة المتداولة نُشر على موقع الويب الخاص بها تحت اسم "الحماية الموسعة للأطفال".

وأقرت الشركة أنه في حين أن الميزات قد اكتسبت دعمًا من بعض المنظمات، إلا إن آخرين قد "تواصلوا طارحين أسئلة".

وردت الشركة على الأسئلة حول الأداة المعروفة باسم "أمان الاتصالات في الرسائل"، والتي تحلل الصور المرسلة إلى الأطفال بحثًا عن علامات إساءة المعاملة.

وأشارت إلى أن "أبل" لم تتمكن أبدًا من الوصول إلى هذه الاتصالات، وأن التشفير من طرف إلى طرف لا يزال مضمونًا، وسيتم تحذير الأطفال قبل مشاركة أي معلومات مع والديهم.

ثم انتقلت إلى معالجة الميزة الأكثر إثارة للجدل، حيث قالت إن "أبل" لن تقوم بمسح جميع الصور، ولكن فقط التي تم تحميلها على "iCloud Photos"، مما يشير إلى أن أي هواتف تم إيقاف تشغيل هذه الميزة بها سيتم إعفاؤها.

ولم تقل شركة "أبل" صراحةً من قبل إنه ستكون هناك طريقة لإلغاء الاشتراك في خاصية المسح هذه.

وأعلنت "أبل" أنها صممت النظام فقط لاكتشاف صور الاعتداء الجنسي على الأطفال، استجابةً على ما يبدو للمخاوف من التي طرحت إمكانية توسيع نطاق الميزة في المستقبل.

وقالت إنه إذا طُلب منها إضافة أنواع أخرى من الصور إلى قاعدة بياناتها، فإنها "سترفض أي مطالب من هذا القبيل".

وأوضحت: "لقد واجهنا مطالب لإنشاء تغييرات فرضتها الحكومة وتقوض خصوصية المستخدمين من قبل، ورفضنا هذه المطالب بثبات، وسنواصل رفضها في المستقبل، لنكن واضحين، تقتصر هذه التقنية على اكتشاف صور الاستغلال الجنسي للأطفال المخزنة في iCloud ولن نوافق على أي طلب حكومي لتوسيعها".

ونفت أيضًا أن تكون هناك طريقة للقيام بذلك دون مساعدة "أبل"، من خلال "ضخ" أنواع أخرى من الصور في قاعدة البيانات.

وقالت إن "أبل" غير قادرة على إضافة صور جديدة إلى قاعدة البيانات تلك، والتي تأتي من منظمات سلامة الأطفال، ولأن قاعدة البيانات هي نفسها بالنسبة للجميع، فلن يكون من الممكن تغييرها لمستخدم واحد معين.

كما قالت إنه "لا يوجد إبلاغ آلي إلى سلطات إنفاذ القانون"، وبالتالي فإن أي تقرير يتم تمريره إلى السلطات ستراه شركة "أبل" أولاً.

المصدر | الإندبندنت