آبل تطرح نظاما يتيح رصدالإساءة الجنسية للأطفال في أجهزة آيفون

أعلنت شركة أبل تفاصيل نظام يتيح رصد مواد متعلقة بالإساءة الجنسية للأطفال (CSAM) في أجهزة آيفون يملكها أمريكيون. وقبل تخزين صورة ما على نظام iCloud Photos، ستتيح التقنية الجديدة البحث عن المواد المتعلقة بالإساءة الجنسية للأطفال (CSAM). وقالت أبل إنه في حالة رصد تطابق معين، فإن مراجعاً بشرياً سيُقيِّم المحتوى، ثم يبلغ عنه سلطات إنفاذ القانون، إن اقتضى الأمر. لكن هناك خشية من استباحة هذه التقنية للخصوصية، إذ يمكن أن يشمل فحص أجهزة الأيفون بحثاً عن محتوى محظور أو حتى خطاب سياسي. ويساور الخبراء قلق بشأن استخدام النظام من قبل الحكومات الدكتاتورية للتجسس على مواطنيها. وقالت أبل إن نسخاً جديدة من نظام التشغيل (iOS) ونظام تشغيل أجهزة آي باد أو إس (IPadOS)‏ - المقرر إطلاقهما في وقت لاحق هذه السنة - ستكون مزودة "بتطبيقات جديدة للتشفير للحدّ من انتشار المواد المتعلقة بالإساءة الجنسية للأطفال (CSAM) على الإنترنت، مع أخذ الخصوصية بعين الاعتبار". ويعمل النظام من خلال مقارنة الصور مع البيانات المعروفة للإساءة الجنسية للأطفال التي جمعها المركز الوطني للأطفال المفقودين والمستغلين في الولايات المتحدة، إضافة إلى منظمات أخرى معنية بسلامة الأطفال. هذه الصور ترجمت إلى "رموز"، وهي رموز رقمية يمكن أن تكون "متطابقة" مع صورة مخزنة على جهاز أبل. وتقول شركة أبل إن التكنولوجيا أيضاً سترصد نسخاً معدلة لكنها مماثلة لصور أصلية. "مستوى عال من الدقة" وقالت أبل: "قبل تخزين الصورة في iCloud Photos، تُجرى عملية مطابقة لتلك الصورة مقارنة برموز المواد المتعلقة بالإساءة الجنسية للأطفال المعروفة".