قالت Microsoft إنها توسع أطوال الدردشات التي يمكن للناس القيام بها لديك مع الإصدار التجريبي من Bing AI ، بينما بدأت الشركة أيضًا في اختبار شخصيات “نغمة” مختلفة للحصول على ردود أكثر دقة أو أكثر إبداعًا. تأتي تحركات الشركة في أعقاب الجهود المبذولة لتقييد الوصول إلى التكنولوجيا بعد أن خرجت التغطية الإعلامية لتطبيق الدردشة بالذكاء الاصطناعي عن القضبان انتشر الأسبوع الماضي.
قالت الشركة في منشور بالمدونة يوم الثلاثاء إن Bing Chat يمكنه الآن الرد على ما يصل إلى ستة أسئلة أو بيانات متتالية لكل محادثة ، وبعد ذلك سيحتاج الأشخاص إلى بدء موضوع جديد. كانت Microsoft قد فرضت سابقًا حدًا أقصى للمحادثات يبلغ خمسة ردود ، بحد أقصى 50 تفاعلًا إجماليًا في اليوم. قالت Microsoft إنها ستسمح الآن بـ 60 تفاعلًا إجماليًا يوميًا وتخطط لزيادة هذا الإجمالي إلى 100 “قريبًا”.
قالت Microsoft أيضًا إنها تختبر الخيارات للأشخاص لاختيار نغمة محادثاتهم ، سواء كانوا يفضلون أن يكون Bing أكثر دقة في ردوده ، أو أكثر إبداعًا أو في مكان ما بين الاثنين.
في النهاية ، قالت شركة التكنولوجيا العملاقة إنها تأمل في السماح بمحادثات أطول وأكثر تعقيدًا بمرور الوقت ولكنها تريد القيام بذلك “بمسؤولية”.
وقالت الشركة في بيان: “السبب الأساسي الذي يجعلنا نختبر Bing الجديد في العراء مع مجموعة محدودة من مختبري المعاينة هو على وجه التحديد العثور على حالات الاستخدام غير النمطية التي يمكننا من خلالها التعلم وتحسين المنتج”.
تمثل تحركات Microsoft أحدث تطور في برنامج Bing AI chatbot ، والذي أحدث ضجة كبيرة عندما تم الإعلان عنه في وقت سابق من هذا الشهر. تجمع هذه التقنية بين محرك بحث Bing الأقل شهرة من Microsoft و التكنولوجيا من بدء التشغيل OpenAI، الذي يستجيب ChatGPT للمطالبات بكل شيء بدءًا من مطالبتك بكتابة قصيدة للمساعدة في كتابة التعليمات البرمجية وحتى الرياضيات اليومية لمعرفة عدد الحقائب التي يمكن وضعها في السيارة.
يعتقد الخبراء أن هذا النوع الجديد من التكنولوجيا ، المسمى “الذكاء الاصطناعي التوليدي” ، لديه القدرة على إعادة صنع الطريقة التي نتفاعل بها مع التكنولوجيا. أظهرت Microsoft ، على سبيل المثال ، كيف يمكن أن يساعد الذكاء الاصطناعي Bing الخاص بها شخصًا ما على التخطيط لقضاء إجازة يومًا بعد يوم بسهولة نسبية.
على الرغم من ذلك ، أثار النقاد الأسبوع الماضي مخاوف من أن Bing AI من Microsoft قد لا يكون جاهزًا في وقت الذروة. بدأ الأشخاص الذين يتمتعون بإمكانية الوصول المبكر في نشر ردود غريبة كان النظام يقدمها لهم ، بما في ذلك إخبار Bing لكاتب عمود في New York Times بالتخلي عن زواجه ، وطالبت منظمة العفو الدولية باعتذار من مستخدم Reddit حول ما إذا كنا في عام 2022 أو 2023.
قالت Microsoft إن جلسات الدردشة “الطويلة والمعقدة” التي دفعت إلى العديد من الردود غير المعتادة “لم تكن شيئًا نجده عادةً من خلال الاختبارات الداخلية.” لكنها تأمل أن تساعد تحسينات البرنامج ، بما في ذلك الاختيار الجديد المحتمل لهجة الردود ، على منح الأشخاص “مزيدًا من التحكم في نوع سلوك الدردشة لتلبية احتياجاتهم على أفضل وجه”.
المزيد عن روبوتات الدردشة AI
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.