البيت الأبيض يضغط على الرؤساء التنفيذيين للتكنولوجيا بشأن مخاطر الذكاء الاصطناعي

البيت الأبيض يضغط على الرؤساء التنفيذيين للتكنولوجيا بشأن مخاطر الذكاء الاصطناعي


التقت نائبة الرئيس الأمريكي كامالا هاريس يوم الخميس مع الرؤساء التنفيذيين للعديد من شركات التكنولوجيا لمناقشة المخاطر المرتبطة بالذكاء الاصطناعي حيث أعلن البيت الأبيض عن سلسلة من المبادرات التي تهدف إلى معالجة تلك التحديات.

خلال اجتماع استمر ساعتين في البيت الأبيض ، التقى هاريس بقادة Google و Microsoft و OpenAI صانع ChatGPT و AI startup Anthropic. كما قام الرئيس جو بايدن بزيارة قصيرة للاجتماع.

قال بايدن للمديرين التنفيذيين: “ما تفعله ينطوي على إمكانات هائلة وخطر هائل” ، حسب مقطع فيديو نشر على حساب Twitter الخاص به.

يمثل الاجتماع أول قمة للذكاء الاصطناعي في البيت الأبيض منذ إطلاق برنامج ChatGPT الخاص بـ OpenAI في نوفمبر ، حيث ركز اهتمام الجمهور على الذكاء الاصطناعي التوليدي ، وهو أداة قوية تحاكي قدرة البشر على كتابة البرامج وإجراء المحادثات وتأليف الشعر. كما أثارت التكنولوجيا مخاوف بشأن الكيفية التي قد تنشر بها معلومات مضللة وتزيل الوظائف.

وقال هاريس في بيان “يتحمل القطاع الخاص مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاته”. ويجب على كل شركة أن تمتثل للقوانين القائمة لحماية الشعب الأمريكي.

أنظر أيضا: ChatGPT مقابل Bing مقابل Google Bard: ما هو الذكاء الاصطناعي الأكثر فائدة؟

قبل اجتماع الخميس ، أعلنت إدارة بايدن أن المؤسسة الوطنية للعلوم ستنفق 140 مليون دولار لتعزيز البحث والتطوير في مجال الذكاء الاصطناعي. كما قالت إن مكتب الإدارة والميزانية بالبيت الأبيض سيصدر توجيهات سياسية بشأن استخدام الذكاء الاصطناعي من قبل الحكومة الفيدرالية.

استحوذت روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT على العالم في أواخر العام الماضي من خلال التمشيط عبر مجموعات البيانات الضخمة وتجميع الجمل للإجابة عن أي سؤال بردود شبيهة بالبشر. بعد إصدار ChatGPT بواسطة OpenAI ، استخدمت Microsoft مؤسسة ChatGPT التقنية ، GPT-4 ، لتعزيز نتائج بحث Bing ، بينما ردت Google بالكشف عن منافستها ChatGPT ، المسمى Bard.

لكن الأدوات زادت أيضًا من المخاوف بشأن المخاطر المرتبطة بالذكاء الاصطناعي. في مارس / آذار ، وقع المئات من المديرين التنفيذيين في مجال التكنولوجيا والخبراء في مجال الذكاء الاصطناعي على رسالة مفتوحة تحث مختبرات الذكاء الاصطناعي الرائدة على إيقاف تطوير أنظمة الذكاء الاصطناعي مؤقتًا ، مشيرين إلى “المخاطر العميقة” على المجتمع البشري. ومن بين الذين وقعوا الخطاب إيلون ماسك ، المؤسس المشارك لشركة Apple ستيف وزنياك ، والرئيس التنفيذي لشركة Stability AI عماد مستاك ، ومؤلف شركة Sapiens يوفال نوح هراري.

في وقت سابق من هذا الشهر ، استقال عالم كمبيوتر بارز يُشار إليه أحيانًا باسم “الأب الروحي للذكاء الاصطناعي” من Google وقال إنه يأسف لما يمكن أن يعنيه الذكاء الاصطناعي بالنسبة للمعلومات المضللة وسبل عيش الناس. قال جيفري هينتون إنه يخشى ألا يتمكن الأشخاص العاديون من التمييز بين الصور ومقاطع الفيديو والنصوص الحقيقية وتلك التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.

كما أعرب عن مخاوفه بشأن قدرة الذكاء الاصطناعي على إلغاء وظائف الناس. ويتوقع تقرير صدر في مارس من قبل Goldman Sachs أن يصل عدد يمكن أن تتأثر 300 مليون وظيفة بالذكاء الاصطناعي التوليدي، مع ما يصل إلى 7٪ من الوظائف الأمريكية معرضة لخطر الاستعاضة عنها بالذكاء الاصطناعي.

ورفض ممثلو Microsoft و OpenAI التعليق على الاجتماع. لم ترد Google و Anthropic على الفور على طلب للتعليق.

ملاحظة المحررين: تستخدم CNET محركًا للذكاء الاصطناعي لإنشاء بعض توضيحات التمويل الشخصي التي يتم تحريرها والتحقق منها من قبل المحررين لدينا. للمزيد انظر هذا المشنور.




اكتشاف المزيد من موقع شبرون

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *