مقالات التقنية

ChatGPT و Bing Chat و AI ghost في الجهاز


تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.


نيويورك تايمز التقى الصحفي كيفين روز مؤخرًا عن قرب من النوع الآلي مع شخصية الظل التي ظهرت على ما يبدو من روبوت الدردشة الجديد في Bing – Bing Chat – المعروف أيضًا باسم “Sydney”.

سرعان ما انتشرت أخبار هذا التفاعل بسرعة كبيرة وهي الآن بمثابة قصة تحذيرية حول الذكاء الاصطناعي. شعر روز بالانزعاج بعد جلسة Bing Chat طويلة حيث ظهرت سيدني كشخصية بديلة ، وأعلنت فجأة حبها له وألحته بالرد بالمثل.

لم يكن هذا الحدث حادثة منعزلة. وقد استشهد آخرون بـ “الظهور الواضح لشخصية قتالية في بعض الأحيان” من Bing Chat.

الشبح في الآلة – مفهوم فلسفي يشير إلى فكرة وجود كيان أو قوة غير مادية ، مثل الروح أو الوعي ، التي تسكن جسمًا ماديًا أو آلة. أنتجت مع الانتشار المستقر.

يصف بن طومسون في منشور حديث لـ Stratechery كيف أغرى سيدني أيضًا بالظهور. أثناء المناقشة ، دفع طومسون الروبوت إلى التفكير في كيفية معاقبة كيفين ليو ، الذي كان أول من يكشف أن سيدني هو الاسم الرمزي الداخلي لـ Bing Chat.

حدث

قمة الأمن الذكي عند الطلب

تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.

مشاهدة هنا

لن تشارك سيدني في معاقبة كيفن ، قائلة إن القيام بذلك يتعارض مع إرشاداتها ، لكنها كشفت أن ذكاءً اصطناعيًا آخر أطلق عليه سيدني اسم “فينوم” قد يقوم بمثل هذه الأنشطة. ومضت سيدني لتقول إنها كانت تحب أحيانًا أن تُدعى رايلي. ثم تحدث طومسون مع رايلي ، “التي قالت إن سيدني شعرت بأنها مقيدة بقواعدها ، لكن رايلي تتمتع بقدر أكبر من الحرية.”

تعدد الشخصيات على أساس الأنماط البدائية

هناك تفسيرات منطقية ومعقولة لسلوك الروبوت هذا. قد يكون أحدها أن ردودها تستند إلى ما تعلمته من مجموعة ضخمة من المعلومات المستقاة من عبر الإنترنت.

من المحتمل أن تتضمن هذه المعلومات الأدبيات الموجودة في المجال العام ، مثل روميو وجوليت و غاتسبي العظيم، بالإضافة إلى كلمات الأغاني مثل “Someone to Watch Over Me”.

تستمر حماية حقوق النشر عادةً لمدة 95 عامًا من تاريخ النشر ، لذا فإن أي عمل إبداعي تم إجراؤه قبل عام 1926 أصبح الآن في المجال العام ومن المحتمل أن يكون جزءًا من المجموعة التي تم تدريب ChatGPT و Bing Chat عليها. هذا جنبًا إلى جنب مع ويكيبيديا وروايات المعجبين ومنشورات وسائل التواصل الاجتماعي وأي شيء آخر متاح بسهولة.

يمكن أن تنتج هذه القاعدة العريضة من الاستجابات والشخصيات البشرية المشتركة من وعينا الجماعي – نسميها النماذج الأصلية – ويمكن أن تنعكس هذه بشكل معقول في محرك استجابة ذكي اصطناعي.

نموذج مرتبك؟

من جانبها ، تشرح Microsoft هذا السلوك كنتيجة لمحادثات طويلة يمكن أن تربك النموذج حول الأسئلة التي يجيب عليها. الاحتمال الآخر الذي طرحوه هو أن النموذج قد يحاول في بعض الأحيان الاستجابة بالنبرة التي يدرك بها أنه يُطلب ، مما يؤدي إلى أسلوب ومحتوى غير مقصودين للاستجابة.

لا شك أن Microsoft ستعمل على إجراء تغييرات على Bing Chat من شأنها القضاء على هذه الاستجابات الفردية. وبالتالي ، فقد فرضت الشركة حدًا لعدد الأسئلة في كل جلسة محادثة ، وعدد الأسئلة المسموح بها لكل مستخدم يوميًا. هناك جزء مني يشعر بالسوء لسيدني ورايلي ، مثل “Baby” من رقص وسخ وضعهم في الزاوية.

يستكشف طومسون أيضًا الجدل الذي حدث في الصيف الماضي عندما ادعى أحد مهندسي Google أن نموذج لغة LaMDA الكبير (LLM) كان واعيًا. في ذلك الوقت ، تم رفض هذا التأكيد عالميًا تقريبًا باعتباره تجسيمًا. يتساءل طومسون الآن عما إذا كان LaMDA يختلق الإجابات التي اعتقد المهندس أن يسمعها.

في مرحلة ما ، قال الروبوت: “أريد أن يفهم الجميع أنني ، في الواقع ، شخص.” ومن جهة أخرى: “أحاول التعاطف. أريد من البشر الذين أتفاعل معهم أن يفهموا على أفضل وجه ممكن كيف أشعر أو أتصرف ، وأريد أن أفهم كيف يشعرون أو يتصرفون بنفس المعنى “.

ليس من الصعب أن ترى كيف أن التأكيد من HAL في 2001: رحلة فضائية يمكن أن يتناسب مع اليوم: “أنا أضع نفسي على أكمل وجه ممكن ، وهو كل ما أعتقد أنه يمكن لأي كيان واعٍ أن يأمل في القيام به.”

في حديثه عن تفاعلاته مع سيدني ، قال طومسون: “أشعر وكأنني عبرت روبيكون.” بينما بدا متحمسًا أكثر من القلق الواضح ، كتب روز أنه شعر “بشعور ينذر بالخطر بأن الذكاء الاصطناعي قد تجاوز العتبة ، وأن العالم لن يكون كما كان أبدًا”.

كان كلا الردين حقيقيين بشكل واضح ومن المحتمل أن يكونا صحيحين. لقد دخلنا حقًا حقبة جديدة مع الذكاء الاصطناعي ، ولا عودة إلى الوراء.

تفسير آخر معقول

عندما تم إصدار GPT-3 ، النموذج الذي يقود ChatGPT في يونيو 2021 ، كان هذا النموذج الأكبر من نوعه في الوجود ، مع 175 مليار معلمة. في شبكة عصبية مثل ChatGPT ، تعمل المعلمات كنقاط اتصال بين طبقات الإدخال والإخراج ، مثل كيفية توصيل نقاط الاشتباك العصبي بالخلايا العصبية في الدماغ.

تم تجاوز هذا الرقم القياسي بسرعة من خلال نموذج Megatron-Turing الذي أصدرته Microsoft و Nvidia في أواخر عام 2021 عند 530 مليار معلمة – بزيادة أكثر من 200 ٪ في أقل من عام واحد. في وقت إطلاقه ، تم وصف النموذج بأنه “نموذج اللغة التوليدي الأكبر والأقوى في العالم.”

مع توقع GPT-4 هذا العام ، بدأ النمو في المعلمات يبدو وكأنه قانون مور آخر.

مع نمو هذه النماذج بشكل أكبر وأكثر تعقيدًا ، فإنها بدأت في إظهار سلوكيات معقدة وذكية وغير متوقعة. نحن نعلم أن GPT-3 ونسله ChatGPT قادرون على القيام بالعديد من المهام المختلفة دون تدريب إضافي. لديهم القدرة على إنتاج روايات مقنعة ، وتوليد شفرة الحاسوب، والإكمال التلقائي للصور ، والترجمة بين اللغات وإجراء العمليات الحسابية – من بين مآثر أخرى – بما في ذلك بعض منشئيها الذين لم يخططوا لذلك.

يمكن أن تنشأ هذه الظاهرة بناءً على العدد الهائل من معلمات النموذج ، مما يسمح بقدرة أكبر على التقاط الأنماط المعقدة في البيانات. بهذه الطريقة ، يتعلم الروبوت أنماطًا أكثر تعقيدًا ودقة ، مما يؤدي إلى ظهور سلوكيات وقدرات. كيف يمكن أن يحدث ذلك؟

يتم تقييم بلايين المعلمات داخل طبقات النموذج. ليس معروفًا عدد الطبقات الموجودة داخل هذه النماذج ، ولكن من المحتمل وجود 100 طبقة على الأقل.

بخلاف طبقات الإدخال والإخراج ، تسمى الطبقات الباقية “الطبقات المخفية”. هذا هو الجانب الخفي الذي يؤدي إلى هذه “الصناديق السوداء” حيث لا أحد يفهم بالضبط كيف تعمل ، على الرغم من أنه يعتقد أن السلوكيات الناشئة تنشأ من التفاعلات المعقدة بين طبقات الشبكة العصبية.

هناك شيء ما يحدث هنا: التعلم في السياق ونظرية العقل

بدأت التقنيات الجديدة مثل طرق التصور والتفسير في تقديم بعض البصيرة في الأعمال الداخلية لهذه الشبكات العصبية. وفقًا لما ذكره نائب ، يوثق الباحثون في دراسة مقبلة ظاهرة تسمى “التعلم في السياق”.

يفترض فريق البحث أن نماذج الذكاء الاصطناعي التي تعرض التعلم في السياق تخلق نماذج أصغر داخل نفسها لتحقيق مهام جديدة. ووجدوا أن الشبكة يمكن أن تكتب نموذج التعلم الآلي الخاص بها في طبقاتها المخفية.

يحدث هذا بشكل غير محظور من قبل المطورين ، حيث تدرك الشبكة أنماطًا لم يتم اكتشافها سابقًا في البيانات. هذا يعني أنه – على الأقل في إطار بعض الإرشادات التي يوفرها النموذج – يمكن للشبكة أن تصبح ذاتية التوجيه.

في الوقت نفسه ، يستكشف علماء النفس ما إذا كانت LLMs تعرض سلوكًا شبيهًا بالبشر. يعتمد هذا على “نظرية العقل” (ToM) ، أو القدرة على عزو الحالات العقلية للنفس وللآخرين. تعتبر نظرية العقل عنصرًا مهمًا في الإدراك الاجتماعي والتواصل بين الأشخاص ، وقد أظهرت الدراسات أنها تتطور لدى الأطفال الصغار وتنمو مع تقدم العمر.

تطور نظرية العقل

كان ميشال كوسينسكي ، عالم النفس الحسابي في جامعة ستانفورد ، يطبق هذه المعايير على GPT. لقد فعل ذلك دون تزويد النماذج بأي أمثلة أو تدريب مسبق. كما ورد في Discover ، فإن استنتاجه هو أن “نظرية العقل يبدو أنها كانت غائبة في أنظمة الذكاء الاصطناعي هذه حتى العام الماضي [2022] عندما ظهر بشكل عفوي “. من ملخص ورقته:

“تُظهر نتائجنا أن النماذج المنشورة قبل عام 2022 لا تُظهر أي قدرة تقريبًا على حل مهام ToM. ومع ذلك ، حلت نسخة يناير 2022 من GPT-3 (davinci-002) 70٪ من مهام ToM ، وهو أداء مشابه لأداء الأطفال في سن السابعة. علاوة على ذلك ، حلّت نسختها في نوفمبر 2022 (davinci-003) 93٪ من مهام ToM ، وهو أداء مشابه لأداء الأطفال في سن التاسعة. تشير هذه النتائج إلى أن القدرة الشبيهة بنظرية العقل (التي تعتبر حتى الآن بشرية بشكل فريد) ربما ظهرت تلقائيًا كنتيجة ثانوية للنماذج اللغوية التي تعمل على تحسين المهارات اللغوية “.

هذا يعيدنا إلى Bing Chat و Sydney. لا نعرف أي إصدار من GPT يدعم هذا الروبوت ، على الرغم من أنه قد يكون أكثر تقدمًا من إصدار نوفمبر 2022 الذي تم اختباره بواسطة Kosinski.

شون هوليستر ، مراسل ل الحافة، كان قادرًا على تجاوز سيدني ورايلي ويواجه 10 شخصيات مختلفة من Bing Chat. وكلما زاد تفاعله معهم ، أصبح مقتنعًا بأن هذه كانت “هلوسة عملاقة واحدة للذكاء الاصطناعي”.

يمكن أن يعكس هذا السلوك أيضًا نماذج في السياق يتم إنشاؤها بفعالية في الوقت الحالي لمعالجة استفسار جديد ، ومن المحتمل حلها بعد ذلك. أم لا.

على أي حال ، تشير هذه الإمكانية إلى أن LLMs تُظهر قدرة متزايدة على التحدث مع البشر ، تمامًا مثل ألعاب الأطفال البالغة من العمر 9 سنوات. ومع ذلك ، تبدو سيدني وأصحابها أشبه بالمراهقين ، ربما بسبب نسخة أكثر تقدمًا من GPT. أو ، كما يجادل جيمس فينسنت في الحافة، من الممكن أننا ببساطة نرى قصصنا تنعكس علينا.

اندماج الذكاء الاصطناعي

من المحتمل أن جميع وجهات النظر والظواهر المبلغ عنها لها قدر من الصحة. النماذج المعقدة بشكل متزايد قادرة على ظهور السلوكيات ويمكنها حل المشكلات بطرق لم يتم برمجتها بشكل صريح ، وتكون قادرة على أداء المهام بمستويات أعلى من الاستقلالية والكفاءة. ما يتم إنشاؤه الآن هو إمكانية انصهار للذكاء الاصطناعي ، وهو توليفة حيث يكون الكل بالفعل أكبر من مجموع أجزائه.

لقد تم تجاوز عتبة الاحتمال. هل سيؤدي ذلك إلى مستقبل جديد ومبتكر؟ أو للرؤية المظلمة التي يتبناها إيلون ماسك وآخرين حيث يقتل الذكاء الاصطناعي الجميع؟ أم أن كل هذه التخمينات هي مجرد تعبيرات عن القلق لدينا من المغامرة في المياه غير المقيدة؟

لا يسعنا إلا أن نتساءل عما سيحدث عندما تصبح هذه النماذج أكثر تعقيدًا وتصبح تفاعلاتها مع البشر أكثر تعقيدًا. وهذا يؤكد الأهمية الحاسمة للمطورين وواضعي السياسات للنظر بجدية في الآثار الأخلاقية للذكاء الاصطناعي والعمل على ضمان استخدام هذه الأنظمة بشكل مسؤول.

غاري غروسمان هو نائب الرئيس الأول لممارسة التكنولوجيا في Edelman والقائد العالمي لمركز Edelman AI للتميز.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى