وبعد دراسة جديدة بحسب موقع theguardian البريتانى، عن أن ميتا تساعد بشكل نشط على اشتراك إيذاء النفس على إنستجرام من خلال رئيسي في إزالة الصور الصريحة وتشجيع الأشخاص الذين يتفاعلون مع مثل هذا المحتوى على مجموعة مختارة من الصداقات مع مجموعة متنوعة.
وأنشأ باحثون دنماركيون شبكة خاصة لإيذاء النفس على منصة التواصل الاجتماعي، بما في ذلك ملفات تعريف رائعة للأشخاص الذين لم يسبق لهم عمرهم 13 عامًا، حيث شاركوا بـ 85 قطعة من المحتوى بإيذاء النفس والتي شيدتها بشكل واضح، بما في ذلك الدم وشفرات الحلاقة وتشجيع إيذاء النفس.
وكان الهدف من اختبار الدراسة بشكل ادعاء ميتا أصبحت حسنت كبيرة عملياتها لإزالة محتوى الضار، والتي تقول إنها تستخدم الآن الذكاء الاصطناعي، وتدعي شركة التكنولوجيا تخفض حوالي 99٪ من محتوى الضار قبل أن تزوده.
لكن Digitalt Ansvar (المساءلة الرقمية)، وهي منظمة تروج للتنمية الرقمية، وجدت أنها في التجربة التي تحتاجها شهرًا لم تتم إزالة صورة واحدة، وتم إنشاء أداة الذكاء الاصطناعي الصغيرة الخاصة لتحليل المحتوى، ولكن من تحديد 38٪ من صور إيذاء النفس و88٪ من الصور الأكثر سوءا.
وأظهرت الشركة إن هذا أن Instagram لديها إمكانية الوصول إلى التكنولوجيا القادرة على معالجة المشكلة ولكن “اختار عدم الفاعلية بشكل جيد”، وتؤكد شركة Digitalt Ansvar إن الاعتدال غير الكافي للمنصة تشير إلى أنها لم تكن تكمل ثلث لقانون الاتحاد الأوروبي.
ووجدت الاستطلاعه من مؤسسة Stem4 العلمية الدقيقة المطلقة أن ما يقرب من ما يقرب من الأطفال الصغار حيث تم استجوابهم أصبحوا منعزلين، وبدأوا في ممارسة الرياضة بشكل أساسي، وتوقفوا عن التواصل الاجتماعي تمامًا أو أذوا بأنفسهم للتنمر عبر الإنترنت والصيد حول مظهرهم الشخصي.
تقول دراسة إن وسائل التواصل الاجتماعي تحفز الأطفال على كره كسادهم، وقال المتحدث باسم ميتا: “المحتوى الذي يشجع على إيذاء النفس يتعارض مع سياساتنا ونقوم وتطور هذا المحتوى عندما نكتشفه. في الربع الأول من عام 2024، نجح في تحقيق أكثر من 12 مليون مقالة تشبه بالانتحار وإيذاء النفس على Instagram، 99٪ منها يحكم بإزالتها بشكل كامل استباقي.
“في وقت سابق من هذا العام، أطلقنا حسابات Instagram Teen Accounts، والتي ستضع دائما في كل ما تحتاجه إعدادات التحكم في المحتوى الحساس لدينا، لذلك من غير الواضح أن يتم التحكم لهم بمحتوى حساس وفي كثير من الحالات إخفاء هذا المحتوى تماما.”
ومع ذلك، عثرت على دراسة انجليزية متكاملة من محاولة إغلاق شبكة إيذاء النفس، وكانت خوارزمية Instagram تساعدها على التوسع. اقترح البحث عن أطفال في سن 13 عامًا سيصبحون أصدقاء مع جميع أعضاء مجموعة إيذاء النفس بعد اتصالهم بأحد أعضائهم.
وقال الدراسة في هذا الصدد “يشير إلى أن خوارزمية إنستغرام تساهم في تشكيل وانتشار الشبكات إيذاء النفس”، وفي حديثه مع “أوبزرفر”، قال الرئيس التنفيذي لشركة ديجيتال أنسفار، آسك هيسبي هولم، إن الشركة صممت بالنتائج، بعد أن اقترحت ذلك مع المزيد من المزيد الصور التي تشاركها، ستدق نقوس الخطر على المنصة.
وقال: “نعتقد أنه عندما نفعل هذا علويًا، سنصل إلى الحد الذي ستتعرف فيه الذكاء الاصطناعي أو الأدوات الأخرى على هذه الصور أو إنجازها. لكن المفاجأة الكبرى – لم يفعلوا ذلك”، وأضاف: “كان هذا مقلقًا وشكرنا على أن يشتركوا في ذلك من الرهانات التي تحاول معرفة وتحديد هذا المحتوى”.
وقال إن ذلك في تعديل صور إيذاء النفس يمكن أن يؤدي إلى “عواقب وخيمة”، “ورتبط هذا ارتباطًا وثيقًا بالانتحار. لذلك إذا لم يكن هناك من يقوم بالإبلاغ عن هذه المجموعات أو يفعل أي شيء بجانبها، فستظل معروفة غير معروفة للآباء والسلطات ومن يمكنهم المساعدة في الدعم”، ويتوقع أن ميتا لا مجموعات خاصة صغيرة، مثل تلك التي أنشأتها شركته، من أجل تحقيق حركة المشاركة والمشاركة، “نحن لا نتعاون ما إذا تمكنا من إدارة مجموعات أكبر، لكن المشكلة هي أن مجموعات إيذاء النفس صغيرة”
أعلن لوتي روبيك، عالم النفس الشهير الذي ترك مجموعة عالمية في ميتا حول الاعتراف بالانتحار في مارس بعد تشنها “كراهية الطرف” عن محتوى الضار على انستجرام، في حين أنها لم تفاجأ بالنتائج أولاً، إلا أنها سميت المميزة لأنها لم تبدأوا المحتوى الأكثر صراحة .
وقال: “لم لا أفهم أنه سيكون صفراً من أصل 85 منشورًا أزالوها”. “كنت آمل أن يكون الأمر أفضل، وفشلك في فشل ميتا في صور إيذاء النفس من تخفيفها “يوقف” مخاطر المخاطرة على المزيد من إيذاء أنفسهن ويساهم في ارتفاع أرقام الخروج.
وتتساءل إن قضية إيذاء النفس على انستجرام هي مسألة حياة أو موت للأطفال والمراهقين. “وبطريقة ما، هذا مجرد ضرر جانبي لهم في طريقهم إلى جني الأموال والربح على نقاطهم”.
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.