تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.
الذكاء الاصطناعي (AI) هو تقنية متنامية باستمرار. أكثر من تسعة من كل 10 شركات رائدة في البلاد لديها استثمارات مستمرة في المنتجات والخدمات التي تدعم الذكاء الاصطناعي. مع تزايد شعبية هذه التكنولوجيا المتقدمة وتبنيها المزيد من الشركات ، أصبح الاستخدام المسؤول للذكاء الاصطناعي – الذي يشار إليه غالبًا باسم “الذكاء الاصطناعي الأخلاقي” – عاملاً مهمًا للشركات وعملائها.
ما هو الذكاء الاصطناعي الأخلاقي؟
يشكل الذكاء الاصطناعي عددًا من المخاطر على الأفراد والشركات. على المستوى الفردي ، يمكن أن تشكل هذه التكنولوجيا المتقدمة خطرًا على سلامة الفرد وأمنه وسمعته وحريته ومساواته ؛ يمكن أن يميز أيضًا ضد مجموعات معينة من الأفراد. على مستوى أعلى ، يمكن أن يشكل تهديدات للأمن القومي ، مثل عدم الاستقرار السياسي والتفاوت الاقتصادي والصراع العسكري. على مستوى الشركة ، يمكن أن تشكل مخاطر مالية وتشغيلية ومخاطر تتعلق بالسمعة والامتثال.
يمكن للذكاء الاصطناعي الأخلاقي حماية الأفراد والمؤسسات من مثل هذه التهديدات والعديد من التهديدات الأخرى التي قد تنجم عن سوء الاستخدام. على سبيل المثال ، تم تصميم ماسحات TSA في المطارات لتزويدنا جميعًا برحلة جوية أكثر أمانًا وتكون قادرة على التعرف على الأشياء التي قد تفوتها أجهزة الكشف عن المعادن العادية. ثم علمنا أن عددًا قليلاً من “الجهات الفاعلة السيئة” كانوا يستخدمون هذه التقنية ويشاركون صورًا عارية مظللة للركاب. تم تصحيح هذا وإصلاحه منذ ذلك الحين ، ولكن مع ذلك ، يعد هذا مثالًا جيدًا على كيف يمكن لسوء الاستخدام أن يكسر ثقة الناس.
عند حدوث مثل هذا الاستخدام الخاطئ للتكنولوجيا الممكّنة للذكاء الاصطناعي ، فإن الشركات التي لديها سياسة و / أو فريق مسؤول للذكاء الاصطناعي ستكون مجهزة بشكل أفضل للتخفيف من المشكلة.
حدث
قمة الأمن الذكي عند الطلب
تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.
مشاهدة هنا
تنفيذ سياسة أخلاقية للذكاء الاصطناعي
يمكن أن تكون سياسة الذكاء الاصطناعي المسؤولة خطوة أولى رائعة لضمان حماية عملك في حالة سوء الاستخدام. قبل تنفيذ سياسة من هذا النوع ، يجب على أصحاب العمل إجراء تقييم مخاطر الذكاء الاصطناعي لتحديد ما يلي: أين يتم استخدام الذكاء الاصطناعي في جميع أنحاء الشركة؟ من يستخدم التكنولوجيا؟ ما أنواع المخاطر التي قد تنجم عن استخدام الذكاء الاصطناعي؟ متى قد تنشأ المخاطر؟
على سبيل المثال ، هل يستخدم عملك الذكاء الاصطناعي في مستودع يستطيع شركاء الطرف الثالث الوصول إليه خلال موسم العطلات؟ كيف يمكن لعملي أن يمنع و / أو يستجيب لسوء الاستخدام؟
بمجرد أن يلقي أصحاب العمل نظرة شاملة على استخدام الذكاء الاصطناعي في جميع أنحاء شركاتهم ، يمكنهم البدء في تطوير سياسة من شأنها حماية شركتهم ككل ، بما في ذلك الموظفين والعملاء والشركاء. لتقليل المخاطر المصاحبة ، يجب على الشركات مراعاة بعض الاعتبارات الرئيسية. يجب عليهم التأكد من أن أنظمة الذكاء الاصطناعي مصممة لتعزيز المهارات المعرفية والاجتماعية والثقافية ؛ التحقق من أن الأنظمة عادلة ؛ تدمج الشفافية في جميع أجزاء التنمية ؛ ومحاسبة أي شركاء.
بالإضافة إلى ذلك ، يجب على الشركات مراعاة المكونات الثلاثة التالية لسياسة ذكاء اصطناعي فعالة ومسؤولة:
- منظمة العفو الدولية القانونية: أنظمة الذكاء الاصطناعي لا تعمل في عالم ينعدم فيه القانون. هناك عدد من القواعد الملزمة قانونًا على المستويين الوطني والدولي تنطبق بالفعل أو ذات صلة بتطوير ونشر واستخدام هذه الأنظمة اليوم. يجب أن تضمن الشركات أن التقنيات التي تدعم الذكاء الاصطناعي التي تستخدمها تلتزم بأي قوانين محلية أو وطنية أو دولية في منطقتها.
- منظمة العفو الدولية الأخلاقية: من أجل الاستخدام المسؤول ، من الضروري التوافق مع المعايير الأخلاقية. يجب احترام أربعة مبادئ أخلاقية ، متجذرة في الحقوق الأساسية ، لضمان تطوير أنظمة الذكاء الاصطناعي ونشرها واستخدامها بطريقة مسؤولة: احترام استقلالية الإنسان ، ومنع الضرر ، والإنصاف ، والتفسير.
- ذكاء اصطناعي قوي: يجب أن تعمل أنظمة الذكاء الاصطناعي بطريقة آمنة ومأمونة وموثوقة ، ويجب تنفيذ إجراءات وقائية لمنع أي آثار سلبية غير مقصودة. لذلك ، يجب أن تكون الأنظمة قوية ، من منظور تقني (ضمان المتانة التقنية للنظام حسب الاقتضاء في سياق معين ، مثل مجال التطبيق أو مرحلة دورة الحياة) ، ومن منظور اجتماعي (في الاعتبار السياق و البيئة التي يعمل فيها النظام).
من المهم ملاحظة أن الشركات المختلفة قد تتطلب سياسات مختلفة بناءً على التقنيات التي تستخدم الذكاء الاصطناعي. ومع ذلك ، يمكن أن تساعد هذه الإرشادات من وجهة نظر أوسع.
بناء فريق ذكاء اصطناعي مسؤول
بمجرد وضع السياسة وإخطار الموظفين والشركاء وأصحاب المصلحة ، فمن الضروري ضمان وجود فريق عمل في الشركة لإنفاذها ومحاسبة المسيئين عن سوء الاستخدام.
يمكن تخصيص الفريق وفقًا لاحتياجات العمل ، ولكن فيما يلي مثال عام على فريق قوي للشركات التي تستخدم تقنية تدعم الذكاء الاصطناعي:
- رئيس قسم الأخلاقيات: غالبًا ما يُطلق عليه اسم كبير مسؤولي الامتثال ، وهذا الدور مسؤول عن تحديد البيانات التي يجب جمعها وكيفية استخدامها ؛ الإشراف على إساءة استخدام الذكاء الاصطناعي في جميع أنحاء الشركة ؛ تحديد الإجراءات التأديبية المحتملة رداً على سوء الاستخدام ؛ والتأكد من قيام الفرق بتدريب موظفيها على السياسة.
- لجنة الذكاء الاصطناعي المسؤولة: يقوم هذا الدور ، الذي يؤديه شخص / فريق مستقل ، بتنفيذ إدارة المخاطر من خلال تقييم أداء تقنية تدعم الذكاء الاصطناعي بمجموعات بيانات مختلفة ، بالإضافة إلى الإطار القانوني والآثار الأخلاقية. بعد موافقة المراجع على التقنية ، يمكن تنفيذ الحل أو نشره للعملاء. يمكن أن تشمل هذه اللجنة إدارات للأخلاقيات والامتثال وحماية البيانات والقانون والابتكار والتكنولوجيا وأمن المعلومات.
- قسم المشتريات: يضمن هذا الدور أن يتم دعم السياسة من قبل الفرق / الإدارات الأخرى لأنها تكتسب تقنيات جديدة تدعم الذكاء الاصطناعي.
في النهاية ، يمكن لفريق منظمة العفو الدولية الفعال المسؤول أن يساعد في ضمان أن عملك يُحاسب أي شخص يسيء استخدام الذكاء الاصطناعي في جميع أنحاء المنظمة. يمكن أن تتراوح الإجراءات التأديبية من تدخل الموارد البشرية إلى التعليق. بالنسبة للشركاء ، قد يكون من الضروري التوقف عن استخدام منتجاتهم فور التخلص من أي سوء استخدام.
مع استمرار أصحاب العمل في تبني تقنيات جديدة ممكّنة للذكاء الاصطناعي ، يجب عليهم التفكير بقوة في تنفيذ سياسة مسؤولة للذكاء الاصطناعي وفريق للتخفيف من سوء الاستخدام بكفاءة. من خلال استخدام الإطار أعلاه ، يمكنك حماية موظفيك وشركائك وأصحاب المصلحة.
مايك دن هو CTO في Prosegur حماية.
صانعي القرار
مرحبًا بك في مجتمع VentureBeat!
DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص التقنيين الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.
إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.
يمكنك حتى التفكير في المساهمة بمقال خاص بك!
قراءة المزيد من DataDecisionMakers
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.