تقرير أمريكى يحذر: الذكاء الاصطناعى يشكل تهديدًا على مستوى الانقراض

تقرير أمريكى يحذر: الذكاء الاصطناعى يشكل تهديدًا على مستوى الانقراض



تدعو دراسة جديدة ممولة من وزارة الخارجية الأمريكية إلى فرض حظر مؤقت على إنشاء ذكاء اصطناعي متقدم يتجاوز عتبة معينة من القوة الحسابية، ويزعم باحثوها، أن هذه التقنية تشكل “تهديدًا على مستوى الانقراض للجنس البشري”.
 


ووفقا لما ذكره موقع صحيفة “ديلى ميل” البريطانية، تشير الدراسة، التي تم التكليف بها كجزء من عقد فيدرالي بقيمة 250 ألف دولار، إلى ضرورة تحديد صلاحيات الطوارئ للسلطة التنفيذية للحكومة الأمريكية للرد على الحوادث الخطيرة والسريعة المتعلقة بالذكاء الاصطناعي، فإن التعامل مع رقائق الكمبيوتر المتطورة باعتبارها سلعًا محظورة دوليًا، وحتى مراقبة كيفية استخدام الأجهزة، ليست سوى بعض من التدابير الجذرية التي تدعو إليها الدراسة الجديدة.


 


وينضم التقرير إلى مجموعة من الأصوات الصناعية والحكومية والأكاديمية التي تدعو إلى إيلاء اهتمام تنظيمي قوي لإمكانات الذكاء الاصطناعي التي يتم متابعتها بشدة.

 


ربطت وكالة الأمم المتحدة للعلوم والثقافة (اليونسكو) في يوليو الماضى، على سبيل المثال، مخاوفها المتعلقة بالذكاء الاصطناعي بمخاوف مستقبلية مماثلة بشأن تكنولوجيا شرائح الدماغ، على غرار شركة نيورالينك التي أنشأها إيلون ماسك، وحذرت من “المراقبة العصبية” التي تنتهك “الخصوصية العقلية”.


وبينما يشير التقرير الجديد مقدمًا، في صفحته الأولى، إلى أن توصياته “لا تعكس آراء وزارة الخارجية الأمريكية أو حكومة الولايات المتحدة”، فإن باحثيه يطلعون الحكومة على الذكاء الاصطناعي منذ عام 2021.


 


قال باحثو الدراسة، وهي شركة استشارية للذكاء الاصطناعي مكونة من أربعة أشخاص تدعى شركة جلادستون للذكاء الاصطناعي ويديرها الأخوان جيريمي وإدوارد هاريس، إن عروضهم السابقة حول مخاطر الذكاء الاصطناعي كانت تُسمع في كثير من الأحيان من جانب المسؤولين الحكوميين الذين ليس لديهم سلطة التصرف.


وكتبوا أن الذكاء الاصطناعي المتقدم والهجومي “يمكن استخدامه لتصميم وحتى تنفيذ هجمات بيولوجية أو كيميائية أو إلكترونية كارثية، أو تمكين تطبيقات مسلحة غير مسبوقة في سرب الروبوتات”.


 


لكن التقرير يطرح سيناريو ثانيًا أكثر بؤسًا، والذي يصفونه بأنه خطر “فقدان السيطرة” على الذكاء الاصطناعي، وكتبوا أن هناك “سببًا للاعتقاد بأنه قد لا يمكن السيطرة عليه إذا تم تطويره باستخدام التقنيات الحالية، ويمكن أن يتصرف بشكل معاكس للبشر بشكل افتراضي”.


 


بمعنى آخر، قد تقرر الآلات بنفسها أن الإنسانية هي مجرد عدو يجب القضاء عليه إلى الأبد.


 


كما قدم جيريمي هاريس، الرئيس التنفيذي لشركة Gladstone AI، سيناريوهات خطيرة مماثلة قبل جلسات الاستماع التي عقدتها اللجنة الدائمة المعنية بالصناعة والتكنولوجيا داخل مجلس العموم الكندي العام الماضي، في 5 ديسمبر 2023.


 


وقال هاريس للمشرعين الكنديين: “ليس من المبالغة أن نقول إن المحادثات الباردة في مجتمع سلامة الذكاء الاصطناعي الحدودي تضع الذكاء الاصطناعي في المستقبل القريب كسلاح للدمار الشامل”.


 


وأشار هاريس وزملاؤه في تقريرهم الجديد لوزارة الخارجية إلى أن شركات الذكاء الاصطناعي الممولة بكثافة في القطاع الخاص تواجه “حافزًا للتوسع” مذهلًا للتغلب على منافستها أكثر من أي “حافز للاستثمار في السلامة أو الأمن”.


 


وينصحون بأن الوسيلة الوحيدة القابلة للتطبيق لضخ الفواصل في السيناريو الخاص بهم هي خارج الفضاء الإلكتروني، من خلال التنظيم الصارم لرقائق الكمبيوتر المتطورة المستخدمة لتدريب أنظمة الذكاء الاصطناعي في العالم الحقيقي.


 


ويصف تقرير جلادستون للذكاء الاصطناعي أعمال منع الانتشار على هذه الأجهزة بأنها “أهم شرط لحماية السلامة والأمن العالميين على المدى الطويل من الذكاء الاصطناعي”.


 


اكتشاف المزيد من موقع شبرون

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *