شركاء وزارة الدفاع يطالبون بقاعدة بيانات مركزية لتدريب الذكاء الاصطناعي العسكري

شركاء وزارة الدفاع يطالبون بقاعدة بيانات مركزية لتدريب الذكاء الاصطناعي العسكري

موقع شبرون للتقنية والأخبار- متابعات تقنية: [ad_1]

قائد صناعة التكنولوجيا وخبراء الذكاء الاصطناعي العسكري يدلون بشهادتهم أمام لجنة الخدمات المسلحة في مجلس النواب بتاريخ قال يوم الثلاثاء إن وزارة الدفاع الأمريكية بحاجة ماسة إلى تبسيط ممارساتها المتأخرة في جمع البيانات إذا كانت تريد الحفاظ على ريادتها في أسلحة الذكاء الاصطناعي العالمية. وقال ألكسندر وانغ ، الرئيس التنفيذي لشركة Scale AI ، الذي كان من بين ثلاثة شهود شهدوا يوم الثلاثاء ، للمشرعين إنه يعتقد أن “البيانات هي الذخيرة في حرب الذكاء الاصطناعي”.

ال سمع اكتشفوا أهم العوائق التي يُعتقد أنها تمنع وزارة الدفاع من تبني ونشر الذكاء الاصطناعي بسرعة في ساحة المعركة وسط زيادة في الضجيج في القطاع الخاص حول الذكاء الاصطناعي. وانغ ، الذي كانت شركته منح عقد بقيمة 250 مليون دولار من قبل وزارة الدفاع العام الماضي ، قرع ما يراه على أنه عجز الجيش عن استخدام السيول الهائلة من البيانات التي يولدها من أجهزته ونظام أسلحته لتدريب نماذج الذكاء الاصطناعي العسكرية القوية الخاصة به.

وشهد وانغ: “تفتقر وزارة الدفاع إلى أنظمة الاحتفاظ بالبيانات وإدارتها المناسبة لتفعيلها”. “داخل وزارة الدفاع ، يتم إهدار الكثير من أصول الذكاء الاصطناعي الرئيسية لدينا – بياناتنا – كل يوم.”

دعا المسؤول التنفيذي للتكنولوجيا الجيش إلى إنشاء مستودع بيانات مركزي حيث يمكنه تخزين واستخدام ما يقدر بنحو 22 تيرابايت من البيانات العسكرية التي يتم إنشاؤها كل يوم بشكل فعال. وحذر من أن الفشل في القيام بذلك يهدد بالتنازل عن الأرض للصين خلال “فجر حقبة جديدة من الحرب”.

“السباق نحو قيادة عالمية للذكاء الاصطناعي يسير على قدم وساق.”

دعا وانغ وزارة الدفاع إلى زيادة حصتها من الإنفاق على جهود الذكاء الاصطناعي لمواكبة الصين التي قال إنها تنفق ما يقرب من عشرة أضعاف ميزانيتها العسكرية الإجمالية على النهوض بالذكاء الاصطناعي. ممارسة الجيش الأمريكي المتمثلة في إنفاق مبالغ لا يمكن فهمها تقريبًا من النقود على الدبابات والطائرات ، بعضها لا يعمل حتى، يخاطر بترك الولايات المتحدة “عالقة في معضلة المبتكر” ، بينما يمتلك خصومها مسارًا واضحًا للاستثمار في أنظمة الأسلحة المتقدمة التي تدعم الذكاء الاصطناعي في المستقبل.

قال وانغ: “بينما نفهم هذه التكنولوجيا ونضع تصورًا لإطار عمل لكيفية استخدامها ، يعمل القادة الصينيون بنشاط على استخدام الذكاء الاصطناعي لإحكام قبضتهم محليًا وتوسيع نطاق وصولهم عالميًا”.

لم ترد وزارة الدفاع على الفور على طلب Gizmodo للتعليق.

مطبخ كلون ، أ نمقيم قenior وellow في أمريكان إنتربرايز معهدو ردد هذا الشعور وقال إنه يعتقد أن الصين لديها حاليًا ميزة على الولايات المتحدة من حيث جمع البيانات الخام بسبب الاستخدام الواسع النطاق للدولة لتقنية التعرف على الوجه وتقنيات المراقبة الحيوية الأخرى. في هذه الحالة، ومع ذلك ، فإن المزيد من البيانات ليس بالضرورة أفضل. وأشار كلون إلى أن الأساليب القوية التي أبلغت عنها الحكومة الصينية للحصول على تلك البيانات تجعلها عرضة للتحيز ، مما قد يؤدي إلى سوء تدريب نماذج الذكاء الاصطناعي العسكرية.

قارن كلون هذا النهج بالممارسة الحديثة لشركات التكنولوجيا الأمريكية المتمثلة في تجريد الإنترنت المفتوح للبيانات العامة لتدريب نماذج لغوية كبيرة مثل ChatGPT من OpenAI ، عرض طريقة أفضل ل جمع مساحات كبيرة من البيانات. في الوقت نفسه ، من بينهم النقاد المؤلفون و الفنانين عارضوا هذه الأنظمة نفسها لاستخدام أعمالهم دون الحصول على إذن أو موافقة.

قال كيتشن: “إن الهشاشة السياسية للحكومة الصينية ، والرقابة الصارمة على المحتوى ، والقمع الذي يمارسه شعبها ، سيهدد الكثير من البيانات التي تجمعها ، ويخفف من فائدتها ويحد في النهاية من تطوير الذكاء الاصطناعي الصيني”.

الحكومات لا تتباطأ في الأسلحة المستقلة

لم يكن هناك أي نقاش هادف خلال جلسة الاستماع حول ما إذا كان ينبغي للجيش أن يواصل استثماره في أنظمة الأسلحة التي تدعم الذكاء الاصطناعي في المقام الأول أم لا.

استثمر البنتاغون في الذكاء الاصطناعي على مدى عقود وقال مؤخرًا إنه يتوقع أن تلعب أنظمة الأسلحة المستقلة وشبه المستقلة دور “دور متزايد“في حروب المستقبل. أمضت جماعات حقوق الإنسان ، مثل حملة “أوقفوا الروبوتات القاتلة” و “هيومن رايتس ووتش” سنوات في حث الحكومات حول العالم على ذلك وضع قيود أو توقيع معاهدات رسمية حظر هذه الأنظمة أو الحد من استخدامها بسبب مخاوف من أنها قد تشكل خطرًا وجوديًا على البشرية.

الأمم ، بما في ذلك الولايات المتحدة، لا يبدو كل هذا مهتمًا بالالتزام بجهود خفض التصعيد هذه. جيش الدفاع الإسرائيلي يقال تستخدم بالفعل أنظمة الذكاء الاصطناعي لتحديد أهداف للضربات الجوية. في غضون ذلك ، تم بالفعل نشر طائرة بدون طيار مستقلة تمامًا تعمل دون إشراف بشري في ساحة المعركة خلال المناوشات العسكرية لعام 2020 في ليبيا ، وفق تقرير للأمم المتحدة.

البنتاغون ، من جانبه ، أطلق سراحه مبادئ أخلاقيات الذكاء الاصطناعي تتطلب كل أدواتها أن تكون “مسؤولة ومنصفة ويمكن تتبعها وموثوقة وخاضعة للحكم”. خلال جلسة الاستماع يوم الثلاثاء ، أشاد خبير أخلاقيات الذكاء الاصطناعي العالمي في DataRobot الدكتور هنية محمديان بالمبادئ التوجيهية للبنتاغون لكنه قال ذلك يبقى أن نرى كيف يتم تنفيذها بشكل جيد في الممارسة.

قال محموديان: “في السنوات الأخيرة ، أدى التدقيق غير الكافي في أنظمة الذكاء الاصطناعي والذكاء الاصطناعي ، إلى جانب الفهم المحدود للآثار السلبية المحتملة للذكاء الاصطناعي ، إلى العديد من الحالات التي انتهى بها المطاف بالذكاء الاصطناعي إلى إلحاق الضرر بالأفراد والمجموعات التي صُمم لمساعدتها”. “غالبًا ما تم تحويل النظر في أخلاقيات الذكاء الاصطناعي إلى التفكير الثانوي عندما يتعلق الأمر ببناء ونشر أنظمة الذكاء الاصطناعي.”

[ad_2]

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *