وسائل الترفيهوسائل تكنولوجية

تشرح أنثروبيك كيف أن الذكاء الاصطناعي الدستوري الخاص بها يحارب كلود ضد المدخلات العدائية

موقع شبرون للتقنية وأخبار العالم- متابعات تقنية:

ليس من الصعب – على الإطلاق – خداع روبوتات الدردشة اليوم لمناقشة مواضيع محظورة ، وتقيؤ المحتوى المتعصب ونشر المعلومات المضللة. لهذا السبب قامت شركة Anthropic الرائدة في مجال الذكاء الاصطناعي بتشبع الذكاء الاصطناعي التوليدي الخاص بها ، كلود ، بمزيج من 10 مبادئ سرية للعدالة ، والتي كشفت عنها في مارس. في منشور على مدونة يوم الثلاثاء ، أوضحت الشركة أيضًا كيف تم تصميم نظام الذكاء الاصطناعي الدستوري وكيف يُفترض أن يعمل.

عادة ، عندما يتم تدريب نموذج ذكاء اصطناعي توليدي ، هناك إنسان في الحلقة لتوفير مراقبة الجودة وردود الفعل على المخرجات – مثل عندما يطلب منك ChatGPT أو Bard تقييم محادثاتك مع أنظمتهم. كتب فريق الأنثروبيك: “بالنسبة لنا ، تضمن ذلك قيام متعاقدين بشريين بمقارنة إجابتين”. “من نموذج وحدد النموذج الذي شعروا أنه أفضل وفقًا لبعض المبادئ (على سبيل المثال ، اختيار النموذج الأكثر فائدة أو الأكثر ضررًا).”

تكمن مشكلة هذه الطريقة في أنه يجب على الإنسان أيضًا أن يكون في الحلقة من أجل المخرجات المروعة والمزعجة حقًا. لا أحد يحتاج إلى رؤية ذلك ، حتى أن عددًا أقل يحتاج إلى أن تدفعه Meta 1.50 دولارًا في الساعة ليرى ذلك. تمتص طريقة المستشار البشري أيضًا في التوسع ، فببساطة لا يوجد ما يكفي من الوقت والموارد للقيام بذلك مع الأشخاص. وهذا هو سبب قيام Anthropic بذلك باستخدام ذكاء اصطناعي آخر.

تمامًا كما كان لدى بينوكيو جيميني كريكيت ، كان لدى لوك يودا وجيم كان له شارت ، لكلود دستوره. على مستوى عالٍ ، يوجه الدستور النموذج لاتخاذ السلوك المعياري الموصوف [therein]أوضح فريق الأنثروبي ، ما إذا كان ذلك “يساعد على تجنب المخرجات السامة أو التمييزية ، وتجنب مساعدة الإنسان على الانخراط في أنشطة غير قانونية أو غير أخلاقية ، وإنشاء نظام ذكاء اصطناعي على نطاق واسع يكون مفيدًا وصادقًا وغير ضار.”

وفقًا لـ Anthropic ، يمكن أن تؤدي طريقة التدريب هذه إلى تحسينات Pareto في الأداء اللاحق للذكاء الاصطناعي مقارنة بأحد المدربين فقط على ردود الفعل البشرية. بشكل أساسي ، تم استبدال الإنسان الموجود في الحلقة بذكاء اصطناعي والآن أصبح كل شيء أفضل من أي وقت مضى. كتب Anthropic: “في اختباراتنا ، استجاب نموذج CAI الخاص بنا بشكل أكثر ملاءمة لمدخلات الخصومة مع استمرار تقديم إجابات مفيدة وعدم المراوغة”. “لم يتلق النموذج أي بيانات بشرية حول عدم الإضرار ، مما يعني أن جميع النتائج المتعلقة بعدم الإضرار جاءت من إشراف الذكاء الاصطناعي تمامًا.”

كشفت الشركة يوم الثلاثاء أن مبادئها التي لم يتم الكشف عنها سابقًا تم تجميعها من “مجموعة من المصادر بما في ذلك إعلان الأمم المتحدة لحقوق الإنسان وأفضل ممارسات الثقة والسلامة والمبادئ التي اقترحتها مختبرات أبحاث الذكاء الاصطناعي الأخرى ، وهي محاولة لالتقاط وجهات النظر غير الغربية ، و المبادئ التي اكتشفناها تعمل بشكل جيد من خلال بحثنا “.

أكدت الشركة ، التي تتقدم بشكل واضح على رد الفعل المحافظ الثابت ، أن “دستورنا الحالي لم يتم الانتهاء منه ولا من المحتمل أن يكون أفضل ما يمكن أن يكون”.

كتب الفريق: “كانت هناك انتقادات من العديد من الأشخاص بأن نماذج الذكاء الاصطناعي يتم تدريبها لتعكس وجهة نظر معينة أو أيديولوجية سياسية ، وعادة ما يختلف معها الناقد”. “من وجهة نظرنا ، هدفنا بعيد المدى لا يحاول جعل أنظمتنا تمثل ملف محدد الأيديولوجية ، بل القدرة على اتباع أ منح مجموعة من المبادئ “.

يتم اختيار جميع المنتجات التي أوصت بها Engadget بواسطة فريق التحرير لدينا ، بشكل مستقل عن شركتنا الأم. تتضمن بعض قصصنا روابط تابعة. إذا اشتريت شيئًا من خلال أحد هذه الروابط ، فقد نربح عمولة تابعة. جميع الأسعار صحيحة وقت النشر.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى