الذكاء الاصطناعي يشكل مخاطر مجتمعية كبيرة ، بحسب بيان وقعه قادة الصناعة

الذكاء الاصطناعي يشكل مخاطر مجتمعية كبيرة ، بحسب بيان وقعه قادة الصناعة


يشعر قادة صناعة الذكاء الاصطناعي بالقلق إزاء التهديدات المحتملة التي تشكلها أنظمة الذكاء الاصطناعي المتقدمة على البشرية. يوم الثلاثاء ، وقع العديد من قادة الصناعة ، مثل الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، والرئيس التنفيذي لشركة DeepMind ، ديميس هاسابيس ، إلى جانب علماء آخرين وشخصيات بارزة ، بيانًا يحذر من مخاطر الذكاء الاصطناعي.

تم نشر البيان المختصر المكون من جملة واحدة على موقع الويب الخاص بمركز أمان الذكاء الاصطناعي غير الربحي. وجاء في البيان أن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.

أصدرت كل شركة تقنية كبرى تقريبًا روبوت دردشة AI أو أدوات ذكاء اصطناعي أخرى في الأشهر الأخيرة ، بعد إطلاق OpenAI’s ChatGPT و Dall-E العام الماضي. بدأت التكنولوجيا تتسرب إلى الحياة اليومية ويمكن أن تغير كل شيء من كيفية البحث عن المعلومات على الويب إلى كيفية إنشاء روتين للياقة البدنية. كما دفع الإصدار السريع لأدوات الذكاء الاصطناعي العلماء وخبراء الصناعة للتعبير عن مخاوفهم بشأن مخاطر التكنولوجيا إذا استمر التطوير دون تنظيم.

هذا البيان هو الأحدث في سلسلة من التحذيرات الأخيرة حول التهديدات المحتملة للتكنولوجيا المتقدمة. في الأسبوع الماضي ، Microsoft ، الشركة الرائدة في مجال الذكاء الاصطناعي والمستثمر في OpenAI ، صدر تقرير من 40 صفحة يقول إن تنظيم الذكاء الاصطناعي ضروري للبقاء في طليعة الجهات السيئة والمخاطر المحتملة. في مارس ، وقع إيلون ماسك ، الرئيس التنفيذي لشركة تسلا وتويتر ، والشريك المؤسس لشركة آبل ستيف وزنياك وألف شخص آخر في صناعة التكنولوجيا ، على خطاب مفتوح يطالب الشركات بوقف الإنتاج في مشروعات الذكاء الاصطناعي المتقدمة لمدة ستة أشهر على الأقل ، أو حتى يتم الالتزام بمعايير الصناعة والبروتوكولات. .

جاء في الرسالة ، التي نُشرت في 22 مارس ، “هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟ يجب عدم تفويض مثل هذه القرارات لقادة تقنيين غير منتخبين”. “يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية. وستكون مخاطرها تحت السيطرة “.

لاحظ بعض النقاد أن الاهتمام الذي يوليه قادة التكنولوجيا للمخاطر المستقبلية للتكنولوجيا يفشل في معالجة المشكلات الحالية ، مثل ميل الذكاء الاصطناعي إلى “الهلوسة، “الطرق غير الواضحة التي يصل بها روبوت الدردشة للذكاء الاصطناعي إلى إجابة سريعة ومخاوف تتعلق بخصوصية البيانات والانتحال. وهناك أيضًا احتمال أن يطلب بعض قادة التكنولوجيا هؤلاء وقف منتجات منافسيهم حتى يتمكنوا من الحصول على الوقت بناء منتج ذكاء اصطناعي خاص بهم.

ملاحظة المحررين: تستخدم CNET محركًا للذكاء الاصطناعي لإنشاء بعض توضيحات التمويل الشخصي التي يتم تحريرها والتحقق منها من قبل المحررين لدينا. للمزيد انظر هذا المشنور.




اكتشاف المزيد من موقع شبرون

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *