تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.
في أفضل حالاتها ، تعمل أنظمة الذكاء الاصطناعي على توسيع وزيادة العمل الذي نقوم به ، مما يساعدنا على تحقيق أهدافنا. في أسوأ حالاتهم ، يقوضونها. لقد سمعنا جميعًا عن حالات بارزة لتحيز الذكاء الاصطناعي ، مثل محرك توظيف التعلم الآلي (ML) في أمازون الذي يميز ضد النساء أو النتائج العنصرية من Google Vision. هذه الحالات لا تؤذي الأفراد فقط ؛ إنهم يعملون ضد نوايا المبدعين الأصلية. بحق ، جذبت هذه الأمثلة غضبًا عامًا ، ونتيجة لذلك ، شكلت تصورات التحيز للذكاء الاصطناعي إلى شيء سيء بشكل قاطع ونحتاج إلى القضاء عليه.
بينما يتفق معظم الناس على الحاجة إلى بناء أنظمة ذكاء اصطناعي عادلة وذات ثقة عالية ، فإن إزالة جميع أشكال التحيز من الذكاء الاصطناعي أمر غير واقعي. في الواقع ، نظرًا لأن الموجة الجديدة من نماذج ML تتجاوز الحتمية ، يتم تصميمها بنشاط مع مستوى معين من الذاتية مدمجة فيها. أنظمة اليوم الأكثر تعقيدًا هي توليف المدخلات ووضع المحتوى في سياقه وتفسير النتائج. بدلاً من محاولة القضاء على التحيز تمامًا ، يجب على المنظمات أن تسعى إلى فهم وقياس الذاتية بشكل أفضل.
في دعم الذاتية
نظرًا لأن أنظمة ML أصبحت أكثر تعقيدًا – وأصبحت أهدافنا بالنسبة لها أكثر طموحًا – تتطلب المنظمات صراحةً أن تكون ذاتية ، وإن كان ذلك بطريقة تتماشى مع مقصد المشروع والأهداف العامة.
نرى هذا بوضوح في مجال الذكاء الاصطناعي للمحادثة ، على سبيل المثال. أصبحت أنظمة تحويل الكلام إلى نص القادرة على نسخ مقطع فيديو أو مكالمة سائدة الآن. وبالمقارنة ، فإن الموجة الناشئة من الحلول لا تنقل الخطاب فحسب ، بل تفسرها وتلخصها أيضًا. لذا ، بدلاً من النص المباشر ، تعمل هذه الأنظمة جنبًا إلى جنب مع البشر لتوسيع كيفية عملهم بالفعل ، على سبيل المثال ، من خلال تلخيص اجتماع ، ثم إنشاء قائمة بالإجراءات الناشئة عنه.
حدث
قمة الأمن الذكي عند الطلب
تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.
مشاهدة هنا
في هذه الأمثلة ، كما هو الحال في العديد من حالات استخدام الذكاء الاصطناعي ، فإن النظام مطلوب لفهم السياق وتفسير ما هو مهم وما يمكن تجاهله. بعبارة أخرى ، نحن نبني أنظمة ذكاء اصطناعي لتتصرف مثل البشر ، والذاتية جزء لا يتجزأ من الحزمة.
أعمال التحيز
حتى القفزة التكنولوجية التي نقلتنا من تحويل الكلام إلى نص إلى ذكاء المحادثة في بضع سنوات فقط تعد صغيرة مقارنة بالإمكانات المستقبلية لهذا الفرع من الذكاء الاصطناعي.
ضع في اعتبارك هذا: المعنى يتم نقل المحادثة ، في الغالب ، من خلال الإشارات والنبرة غير اللفظية ، وفقًا للبروفيسور ألبرت محرابيان في عمله الأساسي ، الرسائل الصامتة. أقل من عشرة بالمائة يعود إلى الكلمات نفسها. ومع ذلك ، فإن الغالبية العظمى من حلول ذكاء المحادثة تعتمد بشكل كبير على تفسير النص ، وتتجاهل إلى حد كبير (في الوقت الحالي) الإشارات السياقية.
عندما تبدأ أنظمة الذكاء هذه في تفسير ما يمكن أن نسميه البيانات الوصفية للمحادثات البشرية. أي ، النغمة ، والإيقاف المؤقت ، والسياق ، وتعبيرات الوجه وما إلى ذلك ، والتحيز – أو الذاتية المتعمدة الموجهة – ليست مطلبًا فحسب ، بل هو عرض القيمة.
ذكاء المحادثة هو مجرد واحد من العديد من مجالات التعلم الآلي. لا تتمحور بعض التطبيقات الأكثر إثارة للاهتمام والمربحة للذكاء الاصطناعي حول إعادة إنتاج ما هو موجود بالفعل بأمانة ، ولكن بالأحرى تفسيره.
مع الموجة الأولى من أنظمة الذكاء الاصطناعي منذ حوالي 30 عامًا ، كان يُنظر إلى التحيز باعتباره أمرًا سيئًا بشكل مفهوم لأنه كان من المفترض أن تكون نماذج حتمية سريعة ودقيقة ومحايدة. ومع ذلك ، نحن في مرحلة مع الذكاء الاصطناعي حيث نحن يتطلب الذاتية لأن الأنظمة يمكن أن تطابق وتحاكي بالفعل ما يفعله البشر. باختصار ، نحن بحاجة إلى تحديث توقعاتنا بشأن الذكاء الاصطناعي بما يتماشى مع كيفية تغيره على مدار جيل واحد.
استئصال التحيز السيئ
مع زيادة اعتماد الذكاء الاصطناعي وتأثير هذه النماذج على عملية صنع القرار والعمليات في الحياة اليومية ، تصبح قضية المساءلة أساسية.
عندما يصبح عيب ML واضحًا ، فمن السهل إلقاء اللوم على الخوارزمية أو مجموعة البيانات. حتى إلقاء نظرة سريعة على الناتج من مجتمع أبحاث ML يسلط الضوء على مدى اعتماد المشاريع على المكتبات والبروتوكولات ومجموعات البيانات التي يمكن الوصول إليها بسهولة “التوصيل والتشغيل”.
ومع ذلك ، فإن مصادر البيانات الإشكالية ليست هي نقاط الضعف المحتملة الوحيدة. يمكن للتحيز غير المرغوب أن يتسلل بسهولة إلى الطريقة التي نختبر بها النماذج ونقيسها. نماذج ML هي ، بعد كل شيء ، من صنع البشر. نختار البيانات التي نقدمها لهم ، وكيف نتحقق من صحة النتائج الأولية وكيف نواصل استخدام النتائج. يمكن التخفيف من النتائج المنحرفة التي تعكس التحيزات غير المرغوب فيها وغير المقصودة إلى حد ما من خلال وجود فرق متنوعة وثقافة عمل تعاوني يشارك فيها أعضاء الفريق أفكارهم ومدخلاتهم بحرية.
المساءلة في الذكاء الاصطناعي
يبدأ بناء تحيز أفضل ببناء فرق أكثر تنوعًا للذكاء الاصطناعي / تعلم الآلة. تظهر الأبحاث باستمرار أن الفرق الأكثر تنوعًا تؤدي إلى زيادة الأداء والربحية ، ومع ذلك كان التغيير بطيئًا بشكل جنوني. هذا صحيح بشكل خاص في الذكاء الاصطناعي.
بينما يجب أن نواصل الضغط من أجل تغيير الثقافة ، فإن هذا مجرد جانب واحد من نقاش التحيز. اللوائح التي تحكم تحيز نظام الذكاء الاصطناعي هي طريق مهم آخر لإنشاء نماذج جديرة بالثقة.
يجب أن تتوقع الشركات مزيدًا من التدقيق الدقيق لخوارزميات الذكاء الاصطناعي الخاصة بها. في الولايات المتحدة ، تم تقديم قانون العدالة الخوارزمية في عام 2020 بهدف حماية مصالح المواطنين من الأذى الذي يمكن أن تسببه أنظمة الذكاء الاصطناعي غير العادلة. وبالمثل ، فإن لائحة الاتحاد الأوروبي للذكاء الاصطناعي ستحظر استخدام الذكاء الاصطناعي في ظروف معينة وتنظم بشدة استخدامه في المواقف “عالية الخطورة”. وبدءًا من مدينة نيويورك في يناير 2023 ، سيُطلب من الشركات إجراء عمليات تدقيق للذكاء الاصطناعي لتقييم التحيزات العرقية والجنسانية.
بناء أنظمة ذكاء اصطناعي يمكننا الوثوق بها
عندما تنظر المؤسسات في إعادة تقييم نظام الذكاء الاصطناعي ، أو استئصال التحيزات غير المرغوب فيها أو بناء نموذج جديد ، فإنها بالطبع بحاجة إلى التفكير بعناية في الخوارزمية نفسها ومجموعات البيانات التي يتم تغذيتها. لكن يجب عليهم المضي قدمًا للتأكد من أن العواقب غير المقصودة لا تتسلل في مراحل لاحقة ، مثل الاختبار والقياس ، وتفسير النتائج ، أو ، بنفس الأهمية ، في النقطة التي يتم فيها تدريب الموظفين على استخدامها.
مع تزايد تنظيم مجال الذكاء الاصطناعي ، تحتاج الشركات إلى أن تكون أكثر شفافية في كيفية تطبيق الخوارزميات على عملياتها التجارية. فمن ناحية ، سوف يحتاجون إلى إطار عمل قوي يعترف بالتحيزات الضمنية والصريحة ويفهمها ويحكمها.
ومع ذلك ، فمن غير المرجح أن يحققوا أهدافهم المتعلقة بالتحيز دون تغيير الثقافة. لا تحتاج فرق الذكاء الاصطناعي بشكل عاجل فقط إلى أن تصبح أكثر تنوعًا ، ولكن في نفس الوقت تحتاج المحادثة حول التحيز إلى التوسع لمواكبة الجيل الناشئ من أنظمة الذكاء الاصطناعي. نظرًا لأن أجهزة الذكاء الاصطناعي تُبنى بشكل متزايد لزيادة ما يمكننا تحقيقه من خلال وضع المحتوى في سياقه واستنتاج المعنى ، فإن الحكومات والمنظمات والمواطنين على حدٍ سواء سوف يحتاجون إلى أن يكونوا قادرين على قياس جميع التحيزات التي تخضع لها أنظمتنا.
سوربي راثور هو الرئيس التنفيذي والشريك المؤسس لشركة Symbl.ai
صانعي القرار
مرحبًا بك في مجتمع VentureBeat!
DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.
إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.
يمكنك حتى التفكير في المساهمة بمقال خاص بك!
قراءة المزيد من DataDecisionMakers
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.