وسائل الترفيهوسائل تكنولوجية

تريد إدارة بايدن مدخلاتك بشأن قواعد نماذج الذكاء الاصطناعي مثل ChatGPT

موقع شبرون للتقنية وأخبار العالم- متابعات تقنية:

يتخذ المسؤولون الأمريكيون خطوات إضافية لوضع قواعد لأنظمة الذكاء الاصطناعي مثل ChatGPT. تطلب الإدارة الوطنية للاتصالات والمعلومات (NTIA) التعليقات العامة على اللوائح المحتملة التي تحاسب منشئو الذكاء الاصطناعي. ستساعد الإجراءات بشكل مثالي إدارة بايدن على ضمان عمل هذه النماذج على النحو الموعود “دون التسبب في ضرر” ، كما تقول NTIA.

في حين أن الطلب مفتوح ، تقترح NTIA مدخلات حول مجالات مثل الحوافز للذكاء الاصطناعي الجدير بالثقة ، وطرق اختبار السلامة ومقدار الوصول إلى البيانات اللازمة لتقييم الأنظمة. تتساءل الوكالة أيضًا عما إذا كانت الاستراتيجيات المختلفة قد تكون ضرورية في مجالات معينة ، مثل الرعاية الصحية.

التعليقات مفتوحة على مقياس المساءلة لمنظمة العفو الدولية حتى 10 يونيو. ترى NTIA أن وضع القواعد أمر حيوي محتمل. يقول المشرف إن هناك بالفعل “عددًا متزايدًا من الحوادث” حيث تسبب الذكاء الاصطناعي في أضرار. لا يمكن للقواعد أن تمنع تكرار تلك الحوادث فحسب ، بل تقلل من مخاطر التهديدات التي قد تكون نظرية فقط.

تم بالفعل ربط ChatGPT ونماذج الذكاء الاصطناعي التوليدية المماثلة بتسريبات البيانات الحساسة وانتهاكات حقوق النشر ، مما أثار مخاوف من حملات التضليل الآلي والبرامج الضارة. هناك أيضًا مخاوف أساسية حول الدقة والتحيز. بينما يعالج المطورون هذه المشكلات بأنظمة أكثر تقدمًا ، كان الباحثون وقادة التكنولوجيا قلقين بما يكفي للدعوة إلى توقف لمدة ستة أشهر عن تطوير الذكاء الاصطناعي لتحسين السلامة ومعالجة الأسئلة الأخلاقية.

لم تتخذ إدارة بايدن موقفًا حاسمًا بشأن المخاطر المرتبطة بالذكاء الاصطناعي. ناقش الرئيس بايدن الموضوع مع المستشارين الأسبوع الماضي ، لكنه قال إنه من السابق لأوانه معرفة ما إذا كانت التكنولوجيا خطيرة. مع تحرك NTIA ، أصبحت الحكومة أقرب إلى موقف ثابت – سواء كانت تعتقد أن الذكاء الاصطناعي يمثل مشكلة كبيرة أم لا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى