منوعات تقنية

يلوم Xai هوس Grok مع الإبادة الجماعية البيضاء على “تعديل غير مصرح به”


ألقى Xai باللوم على “تعديل غير مصرح به” لخطأ في chatbot Grok التي تعمل بالطاقة الذكاء الاصطناعى والتي تسببت في Grok تشير مرارا وتكرارا “الإبادة الجماعية البيضاء في جنوب إفريقيا” عندما يتم الاحتجاج بها في سياقات معينة على X.

يوم الأربعاء ، بدأ Grok في الرد على عشرات المنشورات على X مع معلومات حول الإبادة الجماعية البيضاء في جنوب إفريقيا ، حتى استجابة للمواضيع غير ذات الصلة. تنبع الردود الغريبة من حساب X لـ Grok ، الذي يستجيب للمستخدمين الذين تم إنشاؤهم بواسطة AI كلما قام شخص بعلامة “@grok”.

وفقًا لمشاركة يوم الخميس من حساب X الرسمي لـ XAI ، تم إجراء تغيير صباح الأربعاء إلى موجه نظام Grok Bot-التعليمات عالية المستوى التي توجه سلوك الروبوت-التي وجهت Grok لتوفير “استجابة محددة” حول “موضوع سياسي”. يقول Xai أن القرص “انتهك [its] السياسات الداخلية والقيم الأساسية “، وأن الشركة” أجرت تحقيقًا شاملاً “.

هذه هي المرة الثانية التي يعترف فيها Xai علنًا بأن تغييرًا غير مصرح به في رمز Grok يتسبب في استجابة الذكاء الاصطناعى بطرق مثيرة للجدل.

في فبراير / شباط ، خضع جروك لفترة وجيزة للرقابة على الإشارات دونالد ترامب وإيلون موسك ، مؤسس الملياردير لـ XAI ومالك X. Igor Babuschkin ، وهو تقدم هندسة XAI ، إن Grok قد تم تعليمه من قبل أ الموظف المارقة لتجاهل المصادر التي ذكرت Musk أو Trump التي تنشر المعلومات الخاطئة ، وأن Xai عاد التغيير بمجرد أن بدأ المستخدمون في الإشارة إليه.

قال Xai يوم الخميس إنه سيجري عدة تغييرات لمنع حدوث حوادث مماثلة في المستقبل.

ابتداء من اليوم ، سوف XAI نشر مطالبات نظام Grok على github وكذلك changelog. تقول الشركة إنها “ستقوم أيضًا بوضع فحوصات ومقاييس إضافية” لضمان عدم تمكن موظفي XAI من تعديل موجه النظام دون مراجعة وإنشاء “فريق مراقبة على مدار الساعة طوال أيام الأسبوع للرد على الحوادث مع إجابات Grok التي لا يتم اكتشافها بواسطة أنظمة آلية”.

على الرغم من تحذيرات موسك المتكررة من مخاطر منظمة العفو الدولية ذهب غير محدد، Xai لديه سجل سلامة من الذكاء الاصطناعى. تقرير حديث وجدت أن جروك سوف يخلع صور النساء عند سؤاله. يمكن أن يكون chatbot أيضًا أكثر كئيبًا من الذكاء الاصطناعى مثل Gemini و ChatGpt من Google ، مما يملأ دون ضبط كبير للحديث عنه.

دراسة أجرتها Saferai ، وهي منظمة غير ربحية تهدف إلى تحسين مساءلة مختبرات الذكاء الاصطناعى ، وجدت XAI تصنيفًا سيئًا في السلامة بين أقرانها ، بسببها ممارسات إدارة المخاطر “ضعيفة للغاية”. في وقت سابق من هذا الشهر ، غاب XAI عن الموعد النهائي الذي فرضته ذاتيًا لنشر إطار سلامة الذكاء الاصطناعي.





المصدر

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى