موقع شبرون للتقنية والأخبار- متابعات تقنية:
الولايات المتحدة نظرت وزارة الدفاع إلى المستقبل ، وهي ترى عالماً مليئاً بأسلحة الحرب الآلية. في أول تحديث لها منذ عام 2012 ، وزارة الدفاع التوجيه الإشراف على تطوير واختبار واستخدام مستقل وشبه مستقل حذر أسلحة من “دور متزايد” للذكاء الاصطناعي في الحروب القادمة.
لقد مر أكثر من عقد على آخر تحديث للبنتاغون لتوجيه سياسته بشأن هذه الأسلحة ، بعنوان “الاستقلالية في أنظمة الأسلحة، ” لكن التي تغيرت هذا الأسبوع. أعرب مسؤولو وزارة الدفاع عن الالتزام بمتابعة الأنظمة المستقلة ودمج الذكاء الاصطناعي المتقدم في الجهود العسكرية المستقبلية. مع تحديث السياسة ، عزز الجيش الأمريكي موقفه باعتباره الكل في الحكم الذاتي حتى مع تكاتف الدول والنشطاء الآخرين معًا للحد من انتشارها.
يأخذ التحديث الجديد في الاعتبار التطورات في مجال الذكاء الاصطناعي على مدى السنوات العشر الماضية ويقدم مجموعة إشراف جديدة رفيعة المستوى. الآن ، في معظم الحالات ، ستحتاج الأسلحة المستقلة إلى الحصول على موافقة رسمية من نائب رئيس هيئة الأركان المشتركة ، ووكيل وزارة الدفاع للسياسة ، ووكيل وزارة الدفاع للأبحاث والهندسة. قبل أن يتمكنوا من الدخول في التطوير الرسمي.
قال مايكل هورويتز ، مدير مكتب سياسة القدرات الناشئة في وزارة الدفاع ، في تقرير حديث: “يحدد التوجيه الآن أنهم ، مثل أي نظام يستخدم الذكاء الاصطناعي ، سواء كان نظام سلاح أم لا ، سيحتاجون إلى اتباع هذه الإرشادات أيضًا”. مقابلة مع كسر الدفاع. “هذا جزء مما نعتبره حكمًا جيدًا.”
ما رأي البنتاغون في الأسلحة التي تدعم الذكاء الاصطناعي؟
التوجيه الجديد يأخذ أيضا البنتاغون مبادئ أخلاقيات الذكاء الاصطناعي المسؤولةو تم الكشف عنها لأول مرة في عام 2020 ، ويطبقها على أنظمة الأسلحة المستقلة. باختصار ، تتطلب هذه المبادئ أن تكون أدوات الذكاء الاصطناعي الخاصة بوزارة الدفاع “مسؤول وعادل وقابل للتتبع وموثوق وخاضع للحكم “. أصدر البنتاغون أ وثيقة المتابعة يحدد العام الماضي المسار الذي يمكن أن يسلكه لجعل هذه المبادئ حقيقة واقعة مع الاستمرار في المنافسة مع التهديدات المتصورة من القوى العالمية الأجنبية (اقرأ: الصين) خارج تلك التحديثات الرقابية وغيرها ، فإن التوجيه الجديد يشبه في الغالب سابقه ، مع مسؤول واحد في وزارة الدفاع يطلق عليه “توضيح ، وليس تغييرًا كبيرًا”.
قد تحصل G / O Media على عمولة
دبليوعلى الرغم من عدم اكتماله بشكل عام ، فإن التحديث يذكر ، بعبارات صارخة ، تقنية القسم-رؤية مركزة للمستقبل. وفي بيان مصاحب للتوجيه ، قالت نائبة وزير الدفاع كاثلين هيكس إن البنتاغون ملتزم “بتطوير واستخدام جميع أنظمة الأسلحة ، بما في ذلك تلك التي تتمتع بميزات ووظائف مستقلة ، بطريقة مسؤولة وقانونية”.
بالتطلع إلى المستقبل ، أقر هيكس بأن الأنظمة الممكّنة للذكاء الاصطناعي “من المرجح أن تلعب دورًا متزايدًا في مجموعة من الأنظمة والقدرات”. في السابق مقابلة مع Gizmodo ، تحدثت هيكس عما تعتبره أهمية الحفاظ على نهج “الإنسان في الحلقة” حيث لا يزال المشغل البشري يحتفظ بدور نهائي في تقرير متى ينفذ نظام الذكاء الاصطناعي هدفه.
عالم منقسم: هل يجب علينا حظر أسلحة الذكاء الاصطناعي والحرب الذاتية؟
لا يشترك الجميع في النظرة الوردية للبنتاغون تجاه الأسلحة المستقلة. في المجموع ، 30 دولة على الأقل لديها بالفعل أعرب عن الدعم لحظر التكنولوجيا تمامًا. حتى أن تلك الدعوات حظيت بدعم الأمين العام للأمم المتحدة أنطونيو غوتيريش ، الذي أطلق في عام 2019 ملف بيان قائلا إن مثل هذه الأنظمة يجب أن تكون محظورة بموجب القانون الدولي.
“الآلات المستقلة التي تتمتع بالقدرة وحسن التقدير لاختيار الأهداف وتودي بحياة الأشخاص دون تدخل بشري هي غير مقبولة سياسياً و قال غوتيريش.
وبالمثل ، فإن غالبية الدول البالغ عددها 125 دولة ممثلة في الأمم المتحدة اتفاقية أسلحة تقليدية معينة أعربوا عن اهتمامهم بقوانين جديدة تحظر بشكل أساسي تطوير الأسلحة المستقلة خلال مؤتمر العام الماضي. فشلت تلك الجهود ، سي إن بي سي ملاحظات، بسبب معارضة روسيا والصين والولايات المتحدة وعدد قليل من الدول الأخرى المتمركزة في طليعة تكنولوجيا الأسلحة المستقلة.
منتقدو أنظمة الأسلحة المستقلة ، من منظمة العفو الدولية ل هيومن رايتس ووتش، لديك مقارنة تطورهم إلى الأسلحة النووية والبارود قبلهم. أنهم تخشى أن يؤدي توسعها غير المقيد إلى سباق تسلح خطير قد يزيد من خطر نشوب صراع جيوسياسي.
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.