Facebook و Instagram إنشاء قاعدة بيانات مجزأة لإزالة المواد الإباحية للأطفال

Facebook و Instagram إنشاء قاعدة بيانات مجزأة لإزالة المواد الإباحية للأطفال

موقع شبرون للتقنية والأخبار- متابعات تقنية:

صورة: ليون نيل (صور جيتي)

Facebook و Instagram نكون أخذ بعض من أقوى الخطوات لم يقمع حتى الآن بتضييق الخناق على مواد الاعتداء الجنسي على الأطفال (CSAM) التي تغرق شبكاتهم الاجتماعية. تقوم Meta ، الشركة الأم لكليهما ، بإنشاء قاعدة بيانات بالشراكة مع المركز الوطني للأطفال المفقودين والمستغَلين (NCMEC) سيسمح ذلك المستخدمين إرسال “بصمة رقمية” لمواد إساءة معاملة الأطفال المعروفة ، وهي رمز رقمي متعلق بصورة أو مقطع فيديو بدلاً من الملف نفسه. سوف الرمز يتم تخزينها ونشرها بواسطة المنصات المشاركة الأخرى للكشف عن علامات نفس الصورة أو الفيديو يتم مشاركتها في مكان آخر متصل.

قال ميتا يوم الاثنين أنه كذلك الشراكة مع NCMEC لتأسيس “نظام أساسي جديد مصمم لمنع الصور الحميمة للشباب بشكل استباقي من الانتشار عبر الإنترنت”. ال مبادرة أطلق عليها اسم Take It Down ، الاستخدامات قيم تجزئة صور CSAM لاكتشاف وإزالة النسخ التي يحتمل مشاركتها على منصات الوسائط الاجتماعية ، سواء كانت مملوكة لشركة Meta أو في أي مكان آخر. يقوم Facebook و Instagram بإزالة الصور الإباحية الانتقامية بهذه الطريقة بالفعل ، وتفتح المبادرة النظام أمام الشركات الأخرى التي ترغب في فعل الشيء نفسه لتطبيقاتها. تشارك المواقع الموجهة نحو المواد الإباحية ومقاطع الفيديو مثل Pornhub و Onlyfans ، وكذلك شبكة التواصل الاجتماعي الفرنسية Yubo.

تعمل ميزة التجزئة بشكل أساسي كـ “بصمة رقمية” للأرقام الفريدة المخصصة لكل صورة أو مقطع فيديو. المستخدمون دون السن القانونية على أمل الحصول على عارية أو صورة عارية جزئيًا لأنفسهم تمت إزالتها من الأنظمة الأساسية ، فيمكنهم إرسال الملف إلى Take It Down ، والذي سيقوم بعد ذلك بتخزين التجزئة المرتبطة بالملف في قاعدة بيانات. يمكن للأعضاء المشاركين ، مثل Facebook و Instagram ، بعد ذلك أخذ قاعدة بيانات التجزئة هذه ومسحها ضوئيًا مقابل الصور ومقاطع الفيديو على منصاتها. لا يعمل لدى أي من الناس انزله للأسفل ولا ل من المفترض أن تشاهد Meta الصورة أو مقطع الفيديو في الأسئلة على أنها حيازة يعتبر استغلال الأطفال في المواد الإباحية جريمة.

“يمكن للناس الذهاب إلى TakeItDown.NCMEC.org واتبع التعليمات لتقديم حالة ستبحث بشكل استباقي عن صورهم الحميمة على التطبيقات المشاركة “، كما جاء في بيان Meta الصحفي.

Take it Down يبني من Meta 2021 منصة StopNCIIالتي دخلت في شراكة مع المنظمات غير الحكومية لاستخدام تقنية التجزئة للكشف والإزالة الصور الحميمة المشتركة عدمبالتراضي. يركز Take It Down بشكل مباشر على الصور العارية والجزئية للمستخدمين القصر. صيمكن أيضًا لـ arents أو غيرهم من “البالغين الموثوق بهم” تقديم مطالبات نيابة عن المستخدمين الشباب.

يمكن لأي شخص يعتقد أن لديه صورة عارية أو عارية جزئيًا للموضوعات المشتركة على منصة غير مشفرة عبر الإنترنت أن يقدم طلبًا لـ Take It Down. تمتد هذه الأهلية إلى المستخدمين الذين تزيد أعمارهم عن 18 عامًا والذين يصدقون صورة الفيديو منهم منذ أن كانوا قاصرين ربما لا يزالون يتربصون في مكان ما على الويب. لا يُطلب من المستخدمين تقديم أي أسماء أو عناوين أو معلومات شخصية أخرى لإنزالها أيضًا. على الرغم من أن هذا يمنح الضحايا المحتملين عدم الكشف عن هويتهم ، إلا أنه يعني أيضًا أنهم لن يتلقوا أي تنبيه أو رسائل لإبلاغهم إذا تم رصد أي مادة وإزالتها.

وقال رئيس Meta Global للسلامة أنتيجون ديفيس في بيان: “تم تصميم Take It Down بدعم مالي من Meta.” “نحن نعمل مع NCMEC للترويج لـ Take It Down عبر منصاتنا ، بالإضافة إلى دمجه في Facebook و Instagram حتى يتمكن الأشخاص من الوصول إليه بسهولة عند الإبلاغ عن المحتوى الذي يحتمل انتهاكه.”

صور الاعتداء الجنسي على الأطفال في ارتفاع

تأتي شراكة Meta مع NCMEC في الوقت الذي تكافح فيه منصات الوسائط الاجتماعية لتضييق الخناق على ملف زيادة في مواد الاعتداء على الأطفال تم اكتشافه عبر الإنترنت. ان تقرير سنوي تم إصداره العام الماضي من قبل مؤسسة مراقبة الإنترنت اكتشفت 252194 عنوان URL تحتوي على أو تروج لمواد CSAM معروفة. وهذا يمثل زيادة بنسبة 64٪ عن نفس الفترة من العام السابق. هذه الأرقام مقلقة بشكل خاص في الولايات المتحدة: العام الماضي، وفق ال استعراض تكنولوجيا معهد ماساتشوستس للتكنولوجيا، الولايات المتحدة تمثل نسبة مذهلة تبلغ 30٪ من روابط CSAM المكتشفة عالميًا.

الغالبية العظمى من روابط CSAM المبلغ عنها من الولايات المتحدة ظهرت شركات وسائل التواصل الاجتماعي على تطبيقات عائلة Meta. بيانات مطلق سراحه في العام الماضي من قبل NCMEC يظهر أن Facebook وحده يمثل 22 مليون تقرير CSAM. هذا مقارنة بحوالي 87000 و 154000 تقرير من Twitter و TikToك، على التوالى. على الرغم من أن هذه الأرقام تبدو وكأنها تصور Facebook على أنه مرتع لا مثيل له لـ CSAM ماديًا ، ولكن تجدر الإشارة إلى تلك الكبيرة الأرقام جزئيا تعكس جهود Meta الأكثر التزامًا للبحث الفعلي عن مواد CSAM واكتشافها. بعبارة أخرى ، كلما نظرت بجدية أكبر ، ستجد المزيد.

كشف CSAM والتشفير من طرف إلى طرف: لعبة شد الحبل

طرحت العديد من شركات التكنولوجيا الأخرى فكرتها الخاصة حول الحد من مواد CSAM في السنوات الأخيرة بدرجات متفاوتة من الدعم. جاءت أسوأ هذه الاقتراحات من شركة Apple في عام 2021 عندما كانت مقترح ادعى باحثو أمان أداة جديدة أنها ستقوم “بمسح” هواتف المستخدم بحثًا عن دليل على مادة CSAM قبل إرسال الصور وتشفيرها على iCloud. صرخ المدافعون عن الخصوصية على الفور ، خوفا يمكن للأدوات الجديدة أن تعمل بمثابة “باب خلفي” يمكن للحكومات الأجنبية أو وكالات الاستخبارات الأخرى إعادة غرضها للانخراط في المراقبة. في ظهر نادر، قامت Apple بالفعل بإيقاف الأدوات مؤقتًا من قبل رسميًا التخندق الخطة برمتها العام الماضي.

وبالمثل ، فإن دعاة الخصوصية والتشفير لديهم محذر تزايد جعدواني اهتمام في طرق جديدة للحد من coul المادي CSAMد ، عمدا أم لا ، يؤدي إلى تقليل التشفير التام بين الأطراف لمستخدمي الإنترنت اليوميين. هذه المخاوف لا تقتصر على الولايات المتحدة. فقط الأسبوع الماضي ، سيجنال رئيس أخبرت ميريديث ويتاكر Ars Technica أن التطبيق كان على استعداد للمغادرة المملكة المتحدة السوق تمامًا إذا تمضي قدمًا في مشروع قانون الأمان على الإنترنت، تشريعات تهدف ظاهريًا إلى حظر مواد CSAM ولكن الخصوصية يقول المناصرون أنه يمكن إرسال الأحقاد من خلال التشفير.

قال ويتاكر لـ Ars Technica: “لن يشارك Signal أبدًا ، ولن يشارك أبدًا ، 1000 بالمائة ، في أي نوع من الغش في تقنيتنا التي من شأنها تقويض وعود الخصوصية لدينا” ، “الآليات المتاحة وقوانين الفيزياء وواقع التكنولوجيا و الأساليب التي تمت تجربتها معيبة بشدة من وجهة نظر حقوق الإنسان ومن وجهة نظر تكنولوجية “.


اكتشاف المزيد من موقع شبرون

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *