منوعات تقنية

مقالات CNET المكتوبة بالذكاء الاصطناعي مليئة بالأخطاء

موقع شبرون للتقنية والأخبار- متابعات تقنية:

بصرف النظر عن تجميع جمل اللغة الإنجليزية السائلة الشبيهة بالبشر معًا ، فهي إحدى جمل ChatGPT أكبر مجموعات المهارات يبدو أنه يخطئ في فهم الأمور. في السعي لتوليد فقرات يمكن تمريرها ، برنامج الذكاء الاصطناعي يختلق المعلومات و حقائق عن الأخطاء مثل عمل لا أحد. لسوء الحظ ، قررت شركة CNET التكنولوجية أن تجعلها أعمالًا تجارية.

اضطر موقع الوسائط التقنية إلى إصدار تصحيحات رئيسية متعددة على منشور منشور على CNET ، تم إنشاؤه عبر ChatGPT ، مثل ذكرت لأول مرة من فيوتشرزم. في واحد الشرح المكتوب بالذكاء الاصطناعي فيما يتعلق بالفائدة المركبة ، كان هناك ما لا يقل عن خمسة أخطاء كبيرة تم تعديلها الآن. كانت الأخطاء على النحو التالي ، وفقًا لتصحيح CNET الضخم:

  • أشارت المقالة إلى أن حساب التوفير الذي يحتوي في البداية على 10000 دولار مع معدل فائدة 3 ٪ ، يتراكم سنويًا ، سيحقق فائدة قدرها 10300 دولار بعد عام. ستصل الفائدة المكتسبة الحقيقية إلى 300 دولار.
  • ظهر خطأ مشابه لما سبق في المثال الثاني ، بناءً على الأول.
  • ذكرت المنشور بشكل غير صحيح أن الفائدة على حسابات CD لسنة واحدة تتضاعف سنويًا فقط. في الواقع: تتراكم حسابات الأقراص المدمجة بترددات متغيرة.
  • المقالة خاطئة ذكرت حما هو المبلغ الذي يتعين على الشخص دفعه على قرض السيارة بمعدل فائدة 4٪ على مدى خمس سنوات.
  • لقد خلط المنشور الأصلي بشكل غير صحيح بين APR و APY ، وقدم نصيحة سيئة وفقًا لذلك.

لأكثر من شهرين ، كان CNET ضخ المشاركات تم إنشاؤها بواسطة ChatGPT. نشر الموقع 78 من هذه المقالات إجمالاً ، وما يصل إلى 12 مقالاً في يوم واحد (اعتبارًا من 11 نوفمبر 2022) ، في الأصل تحت عنوان “CNET Money Staff” ، والآن فقط “CNET Money”. في البداية ، بدا أن المنفذ حريصًا على جعل تأليف الذكاء الاصطناعي الخاص به بعيدًا عن الرادار ، وكشف عن عدم وجود كاتب بشري إلا في وصف غامض من خلال سطر جانبي على صفحة “المؤلف” الخاصة بالروبوت. ثم، مستقبلية ووسائل الإعلام الأخرى التي اشتعلت. يتبع النقد. كتب رئيس تحرير CNET ، كوني غولييلمو تصريح حوله.

ومثلما جاء اعتراف المنفذ العلني باستخدامه للذكاء الاصطناعي بعد انتقادات واسعة النطاق ، لم تحدد CNET ولم تهدف إلى إصلاح كل هذه الأخطاء التي لوحظت يوم الثلاثاء ، كل ذلك من تلقاء نفسه. جاء تصحيح المنفذ الإعلامي فقط بعد أن نبهت فيوتشرزم CNET مباشرة إلى بعض الأخطاء ، حسبما أفادت فيوتشرزم.

سي نت ادعى أن جميع المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي تتم “مراجعة وفحص الحقائق وتحريرها” بواسطة موظفين بشريين حقيقيين. وكل منشور له اسم محرر مرفق به في العنوان الثانوي. لكن من الواضح أن هذا الإشراف المزعوم لا يكفي لإيقاف ChatGPT ولدت العديد من الأخطاء من الانزلاق عبر الشقوق.

عادة ، عندما يقترب المحرر من مقال (خاصة المفسر الأساسي مثل “ما هي الفائدة المركبة”) ، فمن الآمن افتراض أن الكاتب قد بذل قصارى جهده لتوفير معلومات دقيقة. لكن مع الذكاء الاصطناعي ، لا توجد نية ، فقط المنتج. لا يمكن للمحرر الذي يقيم نصًا تم إنشاؤه بواسطة الذكاء الاصطناعي أن يتحمل أي شيء ، وبدلاً من ذلك عليه أن يأخذ بعين الاعتبار الدقيق والنقد لكل عبارة وعالم وعلامة ترقيم. إنه نوع مختلف من المهام عن تحرير شخص ما ، وقد لا يكون شخص ما مجهزًا جيدًا لذلك ، مع الأخذ في الاعتبار درجة الاهتمام الكامل الذي يجب أن يتخذه ، ويبدو أن حجم CNET الهائل يهدف إلى تحقيقه من خلال القصص التي تنتجها ChatGPT.

من السهل أن نفهم (وإن لم يكن ذلك مبررًا) أنه عند غربلة أكوام المنشورات التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، يمكن أن يخطئ المحرر في خطأ حول طبيعة أسعار الفائدة بين سلسلة البيانات التي تبدو موثوقة. عندما يتم الاستعانة بمصادر خارجية للكتابة للذكاء الاصطناعي ، ينتهي الأمر بالمحررين إلى تحمل العبء ، ويبدو فشلهم أمرًا لا مفر منه.

ومن شبه المؤكد أن الإخفاقات لا تقتصر فقط على مقال واحد. تأتي جميع مقالات CNET المكتوبة بالذكاء الاصطناعي تقريبًا مع “ملاحظة المحررين” في الجزء العلوي والتي تقول ، “نحن نراجع حاليًا هذه القصة للتأكد من دقتها. إذا وجدنا أخطاء ، فسنقوم بتحديث وإصدار التصحيحات” ، مما يشير إلى أن المنفذ قد أدرك عدم كفاية عملية التحرير الأولية. تواصلت Gizmodo مع CNET للحصول على مزيد من التوضيح حول ما تعنيه عملية المراجعة الثانوية هذه. (هل ستتم إعادة قراءة كل قصة للتأكد من دقتها من قبل نفس المحرر؟ محرر مختلف؟ مدقق حقائق لمنظمة العفو الدولية؟) ومع ذلك ، لم يستجب CNET على الفور.

بالنظر إلى الاحتمالية الكبيرة الواضحة للأخطاء التي يولدها الذكاء الاصطناعي، قد يتساءل المرء عن سبب تحول CNET بعيدًا عن البشر إلى الروبوتات. المنافذ الصحفية الأخرى ، مثل وكالة انباء، استخدم أيضًا الذكاء الاصطناعي – ولكن فقط في سياقات محدودة للغاية ، مثل ملء المعلومات في قوالب محددة مسبقًا. وفي هذه الأماكن الضيقة ، يبدو أن استخدام الذكاء الاصطناعي يهدف إلى تحرير الصحفيين للقيام بأعمال أخرى ، أكثر جدارة بوقتهم. لكن تطبيق CNET للتكنولوجيا يختلف بشكل واضح من حيث النطاق والهدف.

كل المقالات المنشورة تحت عنوان “CNET Money” هي تفسيرات عامة للغاية مع أسئلة بلغة واضحة كعناوين رئيسية. من الواضح أنها مُحسَّنة للاستفادة من خوارزميات البحث في Google ، وينتهي بها الأمر في أعلى صفحات نتائج الأشخاص – مما يؤدي إلى إغراق المحتوى الحالي و التقاط النقرات. CNET ، مثل Gizmodo والعديد من مواقع الوسائط الرقمية الأخرى ، تحقق عائدًا من الإعلانات على صفحاتها. كلما زاد عدد النقرات ، زاد المال الذي يدفعه المعلن مقابل لوحة (لوحات) الإعلانات الرقمية المصغرة.

من منظور مالي ، لا يمكنك التغلب على الذكاء الاصطناعي: لا توجد تكاليف عامة ولا يوجد حد بشري لمقدار ما يمكن إنتاجه في يوم واحد. لكن من وجهة نظر صحفيةالنقطة ، يعد إنشاء الذكاء الاصطناعي أزمة تلوح في الأفق ، حيث تصبح الدقة ثانوية تمامًا بالنسبة لتحسين محركات البحث والحجم. لا تحفز الإيرادات المستندة إلى النقرات على إعداد تقارير شاملة أو شرح جيد. وفي عالم تصبح فيه منشورات الذكاء الاصطناعي قاعدة مقبولة ، لن يعرف الكمبيوتر سوى كيفية مكافأة نفسه.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى