سيكشف تحديث iPhone و iPad عن صور الاعتداء الجنسي على الأطفال والإبلاغ عنها

ستقوم Apple بمسح صور iCloud بحثًا عن صور الاعتداء الجنسي على الأطفال والإبلاغ عن المطابقات للسلطات القانونية

أعلنت شركة Apple يوم الخميس عن ميزات جديدة من شأنها فحص صور مستخدمي iPhone و iPad للكشف عن مجموعات كبيرة من صور الاعتداء الجنسي على الأطفال المخزنة على خوادمهم السحابية والإبلاغ عنها.

سيكشف تحديث iPhone و iPad عن صور الاعتداء الجنسي على الأطفال والإبلاغ عنها
سيكشف تحديث iPhone و iPad عن صور الاعتداء الجنسي على الأطفال والإبلاغ عنها

وقالت شركة آبل في بيان أعلن عن التحديثات: "نريد المساعدة في حماية الأطفال من المفترسين الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم ، والحد من انتشار مواد الاعتداء الجنسي على الأطفال (CSAM)".

"هذا البرنامج طموح ، وحماية الأطفال مسؤولية مهمة. جهودنا ستتطور وتتوسع بمرور الوقت."

قالت Apple إن عملية الكشف تتم على الجهاز وأصرت على أن الأشخاص الذين لديهم مجموعات كبيرة من الصور التي تم تحميلها على iCloud والتي تتطابق مع قاعدة بيانات لمواد الاعتداء الجنسي على الأطفال المعروفة سوف تتجاوز الحد الذي يسمح بفك تشفير بعض صورهم وتحليلها بواسطة Apple.

أشار إريك نوينشواندر ، كبير مسؤولي الخصوصية في شركة Apple ، إلى أن امتلاك CSAM "هو عمل غير قانوني" ، وقال في مكالمة صحفية يوم الخميس إن "النظام تم تصميمه وتدريبه" لاكتشاف الصور من قاعدة بيانات CSAM الخاصة بالأطفال المفقودين والمستغلين.

قال نوينشفاندر إن الأشخاص الذين تم وضع علامة على صورهم لتطبيق القانون لن يتم إخطارهم ، ولكن سيتم تعطيل حساباتهم.

قال نوينشفاندر: "حقيقة أن حسابك معطل هو عمل ملحوظ لك".

وقالت شركة آبل إن مجموعة أنظمة تشغيل الأجهزة المحمولة الخاصة بها سيتم تحديثها بميزة أمان الأطفال الجديدة "في وقت لاحق من هذا العام".

"لقد غيرت حماية Apple الموسعة للأطفال قواعد اللعبة. قال جون كلارك ، الرئيس والمدير التنفيذي للمركز الوطني للمفقودين والمستغلين: "نظرًا لوجود عدد كبير من الأشخاص الذين يستخدمون منتجات Apple ، فإن إجراءات السلامة الجديدة هذه تتمتع بإمكانية إنقاذ حياة الأطفال الذين يتم إغرائهم عبر الإنترنت والذين يتم تداول صورهم المروعة في مواد الاعتداء الجنسي على الأطفال". أطفال.

أعرب بعض خبراء الخصوصية عن قلقهم بشأن النظام الجديد.

غرد ماثيو دي جرين ، أستاذ مشارك في علم التشفير في جامعة جون هوبكنز: "النظرية هي أنك ستثق في أن شركة آبل ستضم فقط صورًا سيئة حقًا" . "قل ، صور برعاية المركز الوطني للأطفال المفقودين والمستغلين (NCMEC). من الأفضل أن تثق بهم ، لأن الثقة هي كل ما لديك."

تم تضمينه أيضًا في التحديث ، سيستخدم تطبيق رسائل Apple "التعلم الآلي على الجهاز لتحليل مرفقات الصور وتحديد ما إذا كانت الصورة جنسية صريحة" للقصر الذين تستخدم أجهزتهم ميزات الرقابة الأبوية.

سيتدخل تطبيق الرسائل إذا اعتقد الكمبيوتر أن القاصر ربما يرسل أو يستقبل صورة أو مقطع فيديو يظهر "أجزاء الجسم الخاصة التي تغطيتها بملابس السباحة" ، وفقًا للشرائح المقدمة من Apple.

وقالت شركة آبل في بيان صحفي: "عندما يتلقى الطفل هذا النوع من المحتوى ، ستصبح الصورة غير واضحة وسيتم تحذير الطفل ، وتزويده بمصادر مفيدة ، وطمأنته أنه لا بأس إذا لم يرغب في مشاهدة هذه الصورة".

تُظهر لقطات شاشة معلوماتية iPhone يمنع الأطفال من إرسال صور حساسة مع تحذير من أنه "يمكن استخدام الصور ومقاطع الفيديو الحساسة لإيذائك" ويحذر من أن "الشخص الموجود في هذا قد لا يرغب في رؤيتها".

"كإجراء وقائي إضافي ، يمكن أيضًا إخبار الطفل أنه للتأكد من سلامته ، سيتلقى والداهم رسالة إذا شاهدوها. تتوفر حماية مماثلة إذا حاول الطفل إرسال صور جنسية صريحة. تحذير قبل إرسال الصورة ويمكن للوالدين تلقي رسالة إذا اختار الطفل إرسالها ".

المصدر nbcnews

إرسال تعليق

أحدث أقدم

إنظم إلى قناتنا على تيليجرام

إنظم إلى قناتنا وتوصل بأحدث المواضيع التقنية

إتظم إلينا الأن