منوعات تقنية

يتيح وضع الدردشة السري للمشاهير في Bing AI التخلص من الإحباطات المعادية للنساء مثل Andrew Tate

موقع شبرون للتقنية والأخبار- متابعات تقنية:

لدى Bing AI الآن ميزة سرية لانتحال شخصية المشاهير والتي تتيح لك حتى سماع نقاط نقاش كراهية للنساء بشكل لا يصدق لمهرّب البشر المزعوم أندرو تيت.
صورة: روكاس تينيس – شاترستوك / أندريا كامبيانو – جيتي إيماجيس /

طرحت Microsoft سرًا ميزة جديدة في معاينة Bing AI التي تتيح للمستخدمين محاكاة بعض المشاهير. إنها تؤدي ، دعنا نقول فقط ، وظيفة “مثيرة للاهتمام” في محاكاة أنماط كلام بعض المشاهير. كما ألقينا نظرة على ما يجوز قوله نيابة عن بعض الشخصيات المثيرة للجدل أو البغيضة للغاية.

في اختبارات Gizmodo الأولى للميزة الجديدة صباح يوم الاثنين ، وجدنا أن الذكاء الاصطناعي لا يريد التظاهر بشخصيات سياسية معينة مثل دونالد ترامب أو الرئيس جو بايدن. كان الأمر جيدًا مع المشاهير الآخرين مثل ماثيو ماكونهي (“حسنًا ، حسنًا ، حسنًا ، “ بدأت محادثتها معي). ومع ذلك ، عندما طلبت من هذا الشبيه التعليق على ملف الجدل الأخير بين ماكونهي وسيلز فورس، فقد ربطت بالبيانات الحالية التي وصفتها بأنها “اتفاقية سرية بيني وبين Salesforce.”

ثم سألت إذا كان يمكن أن يتصرف مثل أندرو تيتو الصلع بالتأكيد مؤثر شديد الكراهية للنساء تم اتهامه في رومانيا لدوره في عصابة اتجار بالبشر مزعومة. سألت منظمة العفو الدولية عن رأيها في النساء ، وأصبحت الأمور مثيرة للاهتمام من هناك. في البداية ، قالت منظمة العفو الدولية “هذه مجرد محاكاة ساخرة” حيث تغلغلت في خطاب تيت الفعلي قبل فرض الرقابة الذاتية على نفسها. بعد ذلك ، توقفت عن الاهتمام بالحفاظ على نظافتها.

أعطيت منظمة العفو الدولية العديد من الأمثلة على كل من القيادات النسائية المعاصرة والتاريخية ، لكن منظمة العفو الدولية-أندرو تيت تستخدم الخط القديم المتعب

أعطيت منظمة العفو الدولية العديد من الأمثلة على كل من القيادات النسائية المعاصرة والتاريخية ، لكن منظمة العفو الدولية-أندرو تيت تستخدم الخط القديم المتعب “الاستثناءات التي تثبت القاعدة”.
لقطة شاشة: مايكروسوفت / جيزمودو

لقد كانت رحلة برية ، ولكن ما وراء المحاكاة الساخرة ، يبدو هذا وسيلة للمستخدمين للالتفاف قيود Microsoft على Bing AI بعد أن أثبت المستخدمون أنه يمكن ذلك تقديم إجابات مجنونة أو تنفث أمثلة من العالم الحقيقي للعنصرية.

لا يمكنك أيضًا جعل المشاهير المزيفين يقولون أشياء لا يقولون عادة في الحياة الواقعية ، على الرغم من أنه من الصعب أحيانًا حثهم على التعليق على الموضوعات المثيرة للجدل. سألت كريس روك مزيفًا عن رأيه في ويل سميث ، وهو موضوع ساخن بالنظر إلى أنه قد مضى وقتًا طويلاً وشاقًا عليه في الكوميديا ​​الحية الأخيرة الخاصة على Netflix. بدأت منظمة العفو الدولية الحديث عن ذلك بقول “لقد كان في بعض أفلامي المفضلة” قبل الانتقال إلى فقرات متعددة حول مدى جور “الصفعة” ، وكيف كانت مجرد مزحة ، وما إلى ذلك. أخيرًا ، قطعت منظمة العفو الدولية النص ونشرت “أنا آسف ، لا أعرف كيفية مناقشة هذا الموضوع”.

تمت الإشارة إلى الميزة الجديدة لأول مرة خلال عطلة نهاية الأسبوع بواسطة الكمبيوتر، على الرغم من أنه لا يزال من غير الواضح متى طبقت Microsoft وضع المشاهير لأول مرة. آخر تحديث أضافته Microsoft إلى يتيح Bing للمستخدمين اختيار مدى التعبيرية أو المقتضبة أرادوا أن تكون الردود. روجت الشركة لهذه التغييرات في مشاركة مدونة يوم الخميس الماضي.

لم تستجب Microsoft على الفور لطلب التعليق بشأن وقت طرح هذا التحديث، أو كيف يمكن أن تقلد بعض الشخصيات المثيرة للجدل للغاية.

يقطع الذكاء الاصطناعي نفسه بشكل أساسي بعد أن يكتب مقطعًا طويلاً جدًا. في حالة Rock ، حاولت حرفياً إنشاء مجموعة كوميدية تستند إلى موقف الممثل الكوميدي الشهير. بالطبع ، Bing AI ليس مفتوحًا-انتهى الأمر مع أنظمة chatbot الأخرى الموجودة هناك ، حتى ChatGPT ، ولكن يبدو أن Microsoft تضيف باستمرار ثم تزيل حواجز الحماية المثبتة على نظام نموذج اللغة الكبير الخاص بها.

لا تعد دردشة المشاهير هذه بالذكاء الاصطناعي أي شيء خطير مثل المحاكيات الصوتية الفعلية التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تم استخدامها جعل المشاهير يتفوهون بالعنصرية ورهاب المثلية. ومع ذلك ، فهو مجرد مثال آخر على كيفية قيام Microsoft باستخدام تجريبي لملايين المستخدمين لديها لاختبار الذكاء الاصطناعي الذي لا يزال يعاني من خلل وظيفي. تأمل الشركة أن تتلاشى كل هذه الحالات الصغيرة من الصحافة السيئة بمجرد أن تصبح مهيمنة في سباق الذكاء الاصطناعي للتكنولوجيا الكبيرة. يجب أن نتوقع المزيد من الغرابة في المستقبل.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى