نتائج بحث Bing AI Bungles في أوقات ، تمامًا مثل Google

نتائج بحث Bing AI Bungles في أوقات ، تمامًا مثل Google


قراءة قريبة من نتائج البحث المعززة بالذكاء الاصطناعي في Bing يكشف أن موقع الويب يمكن أن يرتكب نفس أنواع الأخطاء التي تظهر في الدردشة أساس التكنولوجيا التي تستخدمها وفي منافس شركة Google Bard.

يستخدم إصدار جديد من Bing الذي تم اختباره بشكل محدود نموذج لغة كبير ، أو LLM ، تقنية من OpenAI ، مختبر الأبحاث الذي استثمرت فيه Microsoft والذي استحوذ على الضوء التكنولوجي من خلال chatbot ChatGPT AI. يمكن لـ ChatGPT والتكنولوجيا ذات الصلة ، المدربة على مساحات شاسعة من الإنترنت ، تحقيق نتائج رائعة ، لكنهم لا يعرفون الحقائق حقًا ويمكنهم ارتكاب أخطاء.

يحاول Bing تجنب مثل هذه الأخطاء من خلال نتائج “التأريض” باستخدام تقنية بحث Microsoft ، وتقييم صحة وسلطة مستندات المصدر وتقديم روابط للمصادر ، حتى يتمكن الأشخاص من تقييم النتائج بأنفسهم بشكل أفضل. لكن الباحث في مجال الذكاء الاصطناعي ومحرك البحث دميتري بريريتون وآخرون اكتشفوا أخطاء في عرض Bing التجريبي ، بما في ذلك البيانات المالية المعيبة من تقرير أرباح ربع سنوي من Gap.

إنها لحظة مزعجة بالنسبة للذكاء الاصطناعي. التكنولوجيا تستطيع حقًا تعطي نتائج ملحوظة ومفيدة، لكن المشكلة تكمن في التقييم عندما لا تفعل ذلك. توقع المزيد من الحذر حيث تحاول صناعة محركات البحث العثور على الصيغة الصحيحة.

شعرت Google بالألم بعد عرض توضيحي الأسبوع الماضي عندما قدمت أداة Bard الخاصة بها ، والتي لم تكن متاحة للجمهور بعد ، معلومات خاطئة حول تلسكوب جيمس ويب الفضائي.

قدمت Microsoft ردًا مشابهًا يوم الثلاثاء على ما قالته Google بشأن زلة خطأها: “نحن ندرك أنه لا يزال هناك عمل يتعين القيام به ونتوقع أن النظام قد يرتكب أخطاء أثناء فترة المعاينة هذه ، وهذا هو سبب أهمية التعليقات حتى نتمكن من التعلم ومساعدة النماذج على التحسن “.

إحدى المشكلات الأساسية هي أن النماذج اللغوية الكبيرة ، حتى لو تم تدريبها باستخدام نصوص مثل الأوراق الأكاديمية وإدخالات ويكيبيديا التي اجتازت درجة معينة من التدقيق ، لا تجمع بالضرورة ردودًا واقعية من تلك المادة الخام.

كرائد إنترنت وباحث في Google قال “فينت سيرف” يوم الإثنين ، إن الذكاء الاصطناعي “مثل مطلق النار في السلطة” نثر الحقائق في جميع أنحاء المطبخ ولكن لا تعرف حقًا ما ينتجه. قال في حديث في قمة TechSurge: “نحن بعيدون جدًا عن الوعي الذاتي الذي نريده”.

قد يبدو تلخيص المستندات ضمن قدرات المعالجة اللغوية المتقدمة للذكاء الاصطناعي ، لكن بناء جمل يمكن للبشر قراءتها دون استخلاص معلومات غير مناسبة قد يكون أمرًا صعبًا. على سبيل المثال ، في هذا الطلب إلى تلخيص ورقة المواصفات الخاصة بكاميرا كانون R8 الجديدة بدون مرآة، أحدثت تقنية Bing العديد من الميزات الموجودة بالفعل في Canon’s R5 السابقة.

كان عالم الكمبيوتر البارز الآخر ، الأستاذ السابق بجامعة ستانفورد ، جون هينيسي ، أكثر تفاؤلاً من سيرف ، حيث أشاد بالذكاء الاصطناعي لمهاراته اللغوية في فهم استفسارات البحث وتوليد النتائج التي غالبًا ما تكون صحيحة. لكنه حذر أيضًا ، “إنه واثق دائمًا من أن لديه الإجابة الصحيحة حتى عندما لا يكون كذلك”.

تقدم OpenAI نفسها نفس التحذير. قال مختبر أبحاث الذكاء الاصطناعي عندما أطلق ChatGPT في نوفمبر: “أحيانًا يكتب ChatGPT إجابات تبدو معقولة ولكنها غير صحيحة أو غير منطقية. إصلاح هذه المشكلة يمثل تحديًا”.

ملاحظة المحررين: تستخدم CNET محركًا للذكاء الاصطناعي لإنشاء بعض توضيحات التمويل الشخصي التي يتم تحريرها والتحقق منها من قبل المحررين لدينا. لمزيد من المعلومات ، انظر هذا المنشور.




اكتشاف المزيد من موقع شبرون

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *