تحدد Microsoft دردشات Bing AI بـ 5 ردود للحفاظ على المحادثات طبيعية

تحدد Microsoft دردشات Bing AI بـ 5 ردود للحفاظ على المحادثات طبيعية


تحد Microsoft من مدى اتساع نطاق التحدث مع الأشخاص باستخدام Bing روبوت محادثة بالذكاء الاصطناعي، بعد التغطية الإعلامية للروبوت الذي خرج عن القضبان أثناء التبادلات الطويلة. سترد Bing Chat الآن على ما يصل إلى خمسة أسئلة أو عبارات متتالية لكل محادثة ، وبعد ذلك سيُطلب من المستخدمين بدء موضوع جديد ، حسبما أعلنت الشركة في منشور مدونة يوم الجمعة. سيتم تقييد المستخدمين أيضًا بـ 50 ردًا إجماليًا في اليوم.

تهدف القيود إلى منع المحادثات من أن تصبح غريبة. وقالت مايكروسوفت إن المناقشات الطويلة “يمكن أن تربك نموذج المحادثة الأساسي”.

وقالت الشركة يوم الأربعاء إنها تعمل على إصلاح مشكلات Bing ، التي تم إطلاقها قبل أسبوع بقليل ، بما في ذلك الأخطاء الواقعية والتبادلات الفردية. تضمنت الردود الغريبة التي تم الإبلاغ عنها عبر الإنترنت بينغ وهو يخبر كاتب عمود في صحيفة نيويورك تايمز بالتخلي عن زواجه ليكون مع برنامج الدردشة الآلي ، وطالبت منظمة العفو الدولية باعتذار من مستخدم Reddit لعدم موافقته على أن العام لا يزال 2022.

تضمنت ردود chatbot أيضًا أخطاء واقعية ، وقالت Microsoft يوم الأربعاء إنها كانت تعدل نموذج الذكاء الاصطناعي لمضاعفة كمية البيانات التي يمكن أن تحصل منها على أربعة أضعاف. وقالت الشركة إنها ستمنح المستخدمين أيضًا مزيدًا من التحكم فيما إذا كانوا يريدون إجابات دقيقة ، والتي يتم الحصول عليها من تقنية Bing AI المملوكة لشركة Microsoft ، أو المزيد من الاستجابات “الإبداعية” التي تستخدم تقنية ChatGPT الخاصة بـ OpenAI.

لا تزال وظيفة الدردشة AI في Bing في وضع الاختبار التجريبي ، مع انضمام المستخدمين المحتملين إلى قائمة انتظار للوصول. باستخدام الأداة ، تأمل Microsoft في الحصول على السبق فيما يقول البعض أنه سيكون الثورة القادمة في البحث على الإنترنت ، من بين أمور أخرى. تقنية ChatGPT أحدثت دفقة كبيرة عندما وصلت في أواخر العام الماضي ، لكن OpenAI نفسها حذرت من المزالق المحتملة ، واعترفت Microsoft بالقيود المفروضة على الذكاء الاصطناعي. وعلى الرغم من ذلك صفات الذكاء الاصطناعي الرائعة، أثيرت مخاوف بشأن استخدام الذكاء الاصطناعي لأغراض شائنة مثل نشر المعلومات الخاطئة والتضليل رسائل البريد الإلكتروني التصيدية.

بفضل إمكانات الذكاء الاصطناعي في Bing ، تود Microsoft أيضًا القفز على محرك البحث القوي Google ، الذي أعلن عن نموذج دردشة AI الخاص به ، Bard ، الأسبوع الماضي. واجهت Bard مشاكلها الخاصة مع الأخطاء الواقعية ، وتحسست في الرد أثناء العرض التوضيحي.

في مدونتها يوم الجمعة ، اقترحت Microsoft أن قيود الدردشة الجديدة لمنظمة العفو الدولية تستند إلى المعلومات المستقاة من الاختبار التجريبي.

“أظهرت بياناتنا أن الغالبية العظمى منكم يجدون الإجابات التي يبحثون عنها في غضون 5 أدوار وأن حوالي 1٪ فقط من محادثات الدردشة تحتوي على أكثر من 50 رسالة”. “بينما نستمر في تلقي تعليقاتك ، سنستكشف توسيع الحدود القصوى لجلسات الدردشة لتعزيز تجارب البحث والاكتشاف.”

ملاحظة المحررين: تستخدم CNET محركًا للذكاء الاصطناعي لإنشاء بعض توضيحات التمويل الشخصي التي يتم تحريرها والتحقق منها من قبل المحررين لدينا. للمزيد انظر هذا المشنور.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *