موقع شبرون للتقنية والأخبار- متابعات تقنية:
ان الذكاء الاصطناعي الأداة التي تستخدمها وكالة خدمات حماية الأطفال في بيتسبرغ تخضع للتدقيق بسبب التمييز العنصري المزعوم ضد العائلات. وكالة اسوشيتد برس تم الإبلاغ أولاً عن المخاوف التي أعقبت التحقيق الذي كشف عن قضايا الشفافية والتحيز المحتمل الناجم عن خوارزميات الذكاء الاصطناعي المستخدمة في نظام رعاية الطفل.
تستخدم وكالة رعاية الأطفال ومقرها بيتسبرغ أداة Allegheny Family Screening Tool التي تساعد الأخصائيين الاجتماعيين المثقلين بالعمل على تحديد العائلات التي يجب التحقيق فيها بشكل أفضل بناءً على مستوى مخاطر تلك الأسرة. ال AP كشفت نتائجها لأول مرة في أبريل من العام الماضي ، قائلة إن نظام الذكاء الاصطناعي لديه القدرة على توسيع الفوارق العرقية حيث يوجد نمط من الإبلاغ عن عدد هائل من الأطفال السود مقارنة بالأطفال البيض لإجراء تحقيق “إلزامي” بشأن الإهمال.
وجدت الأبحاث التي أجرتها جامعة كارنيجي ميلون أن الأخصائيين الاجتماعيين في حوالي ثلث الوقت لا يوافقون على درجات المخاطر التي تحددها خوارزمية الذكاء الاصطناعي ، لكن مسؤولي المقاطعة أخبروا المنفذ أن البحث “افتراضي” ويمكن للعاملين الاجتماعيين تجاوز الأداة ، ذكرت وكالة أسوشيتد برس.
قالت إيرين دالتون ، مديرة إدارة الخدمات الإنسانية في مقاطعة الغاني ، لوكالة أسوشييتد برس ، “لا ينبغي أن يُطلب من العمال ، أياً كانوا ، اتخاذ 14 ، 15 ، 16000 من هذه الأنواع من القرارات بمعلومات غير كاملة بشكل لا يصدق في سنة معينة.”
عبرت وزارة العدل الأمريكية ونقاد آخرون عن قلقهم من أنه باستخدام أداة الذكاء الاصطناعي ، يمكن للبيانات التي تم جمعها أن تفرض التمييز ضد الأسر ذات الدخل المنخفض على أساس العرق ، والدخل ، والإعاقات ، وغيرها من الخصائص.
قد تحصل G / O Media على عمولة
يتم تجميع المعلومات بناءً على البيانات الشخصية بما في ذلك ما إذا كانت الأسرة لديها تاريخ من تعاطي المخدرات ومشاكل الصحة العقلية، قضى فترة في السجن ، ولديه سجل تحت المراقبة ، وبيانات أخرى صادرة عن الحكومة. يمكن للأخصائيين الاجتماعيين بعد ذلك جمع المعلومات التي تم إنشاؤها بواسطة أداة الذكاء الاصطناعي الخاصة بـ Alghany لتحديد العائلات التي يجب التحقيق فيها بشأن الإهمال.
وفقًا لوكالة الأسوشييتد برس ، لا يمكن للنظام تحديد ما إذا كانت الأسرة تفقد مزايا الرعاية الاجتماعية الخاصة بها ، ولكن يمكن أن يؤدي ذلك إلى إخراج الأطفال من المنزل ، ووضعهم في رعاية بالتبني ، وربما إنهاء حقوق الوالدين.
في أعقاب التحقيق الذي أجرته وكالة أسوشييتد برس ، قررت ولاية أوريغون أنها ستوقف استخدام الخوارزميات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في نظام رعاية الطفل بسبب مخاوف المساواة العرقية. أعلنت إدارة الخدمات الإنسانية في ولاية أوريغون عن التغيير في رسالة بريد إلكتروني إلى الموظفين في يونيو من العام الماضي بسبب مخاوف من أن الخوارزمية تستخدم الفوارق العرقية.
وقال لاسي أندرسون ، نائب مدير الوكالة ، في رسالة بالبريد الإلكتروني حصل عليها الإذاعة الوطنية العامة، “نحن ملتزمون بالتحسين المستمر للجودة والإنصاف” ، بينما أخبر المتحدث باسم القسم المنفذ أن الخوارزمية “لم تعد ضرورية” ولكنها لن توفر معلومات إضافية حول تغيير السياسة.
قال السناتور رون وايدن (ديمقراطي من ولاية أوريغون) في بيان إنه لا ينبغي الاعتماد على الخوارزمية عندما يتعلق الأمر بخدمات حماية الطفل. قال وايدن: “إن اتخاذ القرارات بشأن ما يجب أن يحدث للأطفال والأسر هو مهمة في غاية الأهمية لإعطاء خوارزميات غير مختبرة”. “أنا سعيد لأن إدارة الخدمات الإنسانية في ولاية أوريغون تأخذ المخاوف التي أثارتها بشأن التحيز العنصري على محمل الجد وتتوقف مؤقتًا عن استخدام أداة الفحص الخاصة بها.”
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.