Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
مقالات التقنية

خوارزميات تدقيق الخوارزميات: GPT-4 تذكير بأن الذكاء الاصطناعي المسؤول يتجاوز النطاق البشري


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


يُحدث الذكاء الاصطناعي (AI) ثورة في الصناعات ، ويبسط العمليات ، ونأمل أن يكون في طريقه لتحسين نوعية حياة الناس في جميع أنحاء العالم – كلها أخبار مثيرة للغاية. ومع ذلك ، مع التأثير المتزايد لأنظمة الذكاء الاصطناعي ، من الضروري ضمان تطوير هذه التقنيات وتنفيذها بشكل مسؤول.

الذكاء الاصطناعي المسؤول لا يقتصر فقط على الالتزام باللوائح والمبادئ التوجيهية الأخلاقية ؛ إنه المفتاح لإنشاء نماذج ذكاء اصطناعي أكثر دقة وفعالية.

في هذه المقالة ، سنناقش كيف يؤدي الذكاء الاصطناعي المسؤول إلى أنظمة ذكاء اصطناعي أفضل أداء ؛ استكشاف اللوائح الحالية والقادمة المتعلقة بالامتثال للذكاء الاصطناعي ؛ والتأكيد على الحاجة إلى حلول البرمجيات والذكاء الاصطناعي لمواجهة هذه التحديات.

لماذا يؤدي الذكاء الاصطناعي المسؤول إلى نماذج ذكاء اصطناعي أكثر دقة وفعالية؟

يحدد الذكاء الاصطناعي المسؤول الالتزام بتصميم وتطوير ونشر نماذج الذكاء الاصطناعي بطريقة آمنة وعادلة وأخلاقية. من خلال ضمان أن تعمل النماذج على النحو المتوقع – ولا تؤدي إلى نتائج غير مرغوب فيها – يمكن للذكاء الاصطناعي المسؤول أن يساعد في زيادة الثقة والحماية من الضرر وتحسين أداء النموذج.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

لكي تكون مسؤولاً ، يجب أن يكون الذكاء الاصطناعي مفهوماً. لم تعد هذه قضية ذات نطاق إنساني ؛ نحتاج إلى خوارزميات لمساعدتنا على فهم الخوارزميات.

تم تدريب GPT-4 ، أحدث إصدار من نموذج اللغة الكبيرة لـ OpenAI (LLM) ، على نصوص وصور الإنترنت ، وكما نعلم جميعًا ، الإنترنت مليء بالمعلومات غير الدقيقة ، بدءًا من الأخطاء الصغيرة إلى الافتراءات الكاملة. في حين أن هذه الأكاذيب يمكن أن تكون خطيرة من تلقاء نفسها ، إلا أنها تنتج حتمًا نماذج ذكاء اصطناعي أقل دقة وذكاء. يمكن أن يساعدنا الذكاء الاصطناعي المسؤول في حل هذه المشكلات والتحرك نحو تطوير ذكاء اصطناعي أفضل. على وجه التحديد ، يمكن للذكاء الاصطناعي المسؤول:

  1. تقليل التحيز: يركز الذكاء الاصطناعي المسؤول على معالجة التحيزات التي قد يتم تضمينها عن غير قصد في نماذج الذكاء الاصطناعي أثناء التطوير. من خلال العمل النشط للقضاء على التحيزات في جمع البيانات والتدريب والتنفيذ ، تصبح أنظمة الذكاء الاصطناعي أكثر دقة وتوفر نتائج أفضل لمجموعة أكثر تنوعًا من المستخدمين.
  2. تعزيز التعميميشجع الذكاء الاصطناعي المسؤول على تطوير النماذج التي تعمل بشكل جيد في بيئات متنوعة وعبر مجموعات سكانية مختلفة. من خلال ضمان اختبار أنظمة الذكاء الاصطناعي والتحقق من صحتها باستخدام مجموعة واسعة من السيناريوهات ، يتم تحسين قابلية تعميم هذه النماذج ، مما يؤدي إلى حلول أكثر فعالية وقابلية للتكيف.
  3. ضمان الشفافية: يؤكد الذكاء الاصطناعي المسؤول على أهمية الشفافية في أنظمة الذكاء الاصطناعي ، مما يسهل على المستخدمين وأصحاب المصلحة فهم كيفية اتخاذ القرارات وكيفية عمل الذكاء الاصطناعي. وهذا يشمل تقديم تفسيرات مفهومة للخوارزميات ومصادر البيانات والقيود المحتملة. من خلال تعزيز الشفافية ، يعزز الذكاء الاصطناعي المسؤول الثقة والمساءلة ، ويمكّن المستخدمين من اتخاذ قرارات مستنيرة ويعزز التقييم الفعال وتحسين نماذج الذكاء الاصطناعي.

اللوائح الخاصة بالامتثال للذكاء الاصطناعي والأخلاقيات

في الاتحاد الأوروبي ، تم توقيع اللائحة العامة لحماية البيانات (GDPR) لتصبح قانونًا في عام 2016 (وتم تنفيذها في عام 2018) لفرض قواعد صارمة حول خصوصية البيانات.

أدركت الشركات سريعًا أنها بحاجة إلى برامج لتتبع مكان وكيفية استخدام بيانات المستهلك ، ومن ثم التأكد من امتثالها لتلك اللوائح.

OneTrust هي شركة ظهرت بسرعة لتزويد المؤسسات بمنصة لإدارة بياناتها وعملياتها من حيث صلتها بخصوصية البيانات. لقد شهدت OneTrust نموًا مذهلاً منذ تأسيسها ، وكان معظم هذا النمو مدفوعًا باللائحة العامة لحماية البيانات (GDPR).

نعتقد أن الحالات الحالية والمستقبلية لتنظيم الذكاء الاصطناعي تعكس الإطار الزمني لتنظيم خصوصية البيانات 2015/2016 ؛ بدأ الاعتراف بأهمية الذكاء الاصطناعي المسؤول على مستوى العالم ، مع ظهور العديد من اللوائح التنظيمية كوسيلة لدفع تطوير الذكاء الاصطناعي ونشره بشكل أخلاقي.

  1. قانون الاتحاد الأوروبي للذكاء الاصطناعي
    في أبريل 2021 ، اقترحت المفوضية الأوروبية لوائح جديدة – قانون الاتحاد الأوروبي للذكاء الاصطناعي – لإنشاء إطار قانوني للذكاء الاصطناعي في الاتحاد الأوروبي. يتضمن الاقتراح أحكامًا بشأن الشفافية والمساءلة وحقوق المستخدم ، بهدف ضمان أمان أنظمة الذكاء الاصطناعي واحترامها للحقوق الأساسية. نعتقد أن الاتحاد الأوروبي سيواصل قيادة الطريق فيما يتعلق بتنظيم الذكاء الاصطناعي. من المتوقع أن يتم تمرير الاتحاد الأوروبي AIA بحلول نهاية عام 2023 ، مع دخول التشريع حيز التنفيذ في عام 2024/2025.
  1. تنظيم ومبادرات الذكاء الاصطناعي في الولايات المتحدة
    من المرجح أن تحدد AIA للاتحاد الأوروبي نغمة التنظيم في الولايات المتحدة ودول أخرى. في الولايات المتحدة ، تضع الهيئات الحاكمة ، مثل FTC ، بالفعل مجموعاتها الخاصة من القواعد ، خاصة فيما يتعلق باتخاذ القرار بشأن الذكاء الاصطناعي والتحيز ؛ وقد نشر المعهد الوطني للمعايير والتقنية (NIST) إطار عمل إدارة المخاطر الذي من المرجح أن يُعلم التنظيم الأمريكي.

حتى الآن ، على المستوى الفيدرالي ، كان هناك القليل من التعليقات على تنظيم الذكاء الاصطناعي ، مع قيام إدارة بايدن بنشر قانون حقوق الذكاء الاصطناعي – إرشادات غير ملزمة بشأن تصميم واستخدام أنظمة الذكاء الاصطناعي. ومع ذلك ، يقوم الكونجرس أيضًا بمراجعة قانون محاسبة الخوارزمية لعام 2022 للمطالبة بتقييم تأثير أنظمة الذكاء الاصطناعي للتحقق من التحيز والفعالية. لكن هذه اللوائح لا تتحرك بسرعة كبيرة نحو تمريرها.

ومن المثير للاهتمام (ولكن ربما ليس من المستغرب) أن الكثير من الجهود المبكرة لتنظيم الذكاء الاصطناعي في الولايات المتحدة كانت على مستوى الولاية والمستوى المحلي ، حيث يستهدف الكثير من هذا التشريع تكنولوجيا الموارد البشرية والتأمين. أقرت مدينة نيويورك بالفعل القانون المحلي 144 ، المعروف أيضًا باسم تفويض تدقيق التحيز في مدينة نيويورك ، والذي يدخل حيز التنفيذ في أبريل 2023 ويحظر على الشركات استخدام أدوات قرارات التوظيف الآلية لتعيين المرشحين أو ترقية الموظفين في مدينة نيويورك ما لم يتم تدقيق الأدوات بشكل مستقل من أجل تحيز.

اقترحت كاليفورنيا لوائح توظيف مماثلة تتعلق بأنظمة القرار الآلي ، ولدى إلينوي بالفعل تشريعات سارية فيما يتعلق باستخدام الذكاء الاصطناعي في مقابلات الفيديو.

في قطاع التأمين ، اقترح قسم التأمين في كولورادو تشريعًا يُعرف باسم الخوارزمية ونموذج الحوكمة التنبئي الذي يهدف إلى “حماية المستهلكين من التمييز غير العادل في ممارسات التأمين”.

دور البرمجيات في ضمان مسؤولية الذكاء الاصطناعي

من الواضح تمامًا أن الجهات التنظيمية (بدءًا من الاتحاد الأوروبي ثم التوسع في مكان آخر) والشركات ستأخذ أنظمة الذكاء الاصطناعي والبيانات ذات الصلة بجدية بالغة. سيتم فرض غرامات مالية كبيرة – ونعتقد أن سمعة الأعمال ستتعرض للخطر – لعدم الامتثال والأخطاء الناتجة عن عدم فهم نماذج الذكاء الاصطناعي.

ستكون البرامج المصممة لغرض معين مطلوبة لتتبع وإدارة الامتثال ؛ سيكون التنظيم بمثابة رياح خلفية رئيسية لاعتماد التكنولوجيا. على وجه التحديد ، تشمل الأدوار الحاسمة للحلول البرمجية في إدارة التحديات الأخلاقية والتنظيمية المرتبطة بالذكاء الاصطناعي المسؤول ما يلي:

  1. تتبع نموذج الذكاء الاصطناعي والمخزون: يمكن أن تساعد الأدوات البرمجية المؤسسات في الاحتفاظ بجرد لنماذج الذكاء الاصطناعي الخاصة بها ، بما في ذلك الغرض منها ومصادر البيانات ومقاييس الأداء. يتيح ذلك مراقبة وإدارة أنظمة الذكاء الاصطناعي بشكل أفضل ، مما يضمن التزامها بالمبادئ التوجيهية الأخلاقية والامتثال للوائح ذات الصلة.
  2. تقييم مخاطر الذكاء الاصطناعي ومراقبتها: يمكن لأدوات تقييم المخاطر التي تعمل بالذكاء الاصطناعي تقييم المخاطر المحتملة المرتبطة بنماذج الذكاء الاصطناعي ، مثل التحيزات ومخاوف خصوصية البيانات والقضايا الأخلاقية. من خلال المراقبة المستمرة لهذه المخاطر ، يمكن للمنظمات معالجة أي مشاكل محتملة بشكل استباقي والحفاظ على ممارسات الذكاء الاصطناعي المسؤولة.
  3. تدقيق الخوارزمية: في المستقبل ، يمكننا أن نتوقع ظهور خوارزميات قادرة على تدقيق الخوارزميات الأخرى – الكأس المقدسة! لم تعد هذه مشكلة على نطاق الإنسان مع الكميات الهائلة من البيانات وقوة الحوسبة التي تدخل في هذه النماذج. سيسمح ذلك بإجراء تقييمات آنية ومؤتمتة وغير متحيزة لنماذج الذكاء الاصطناعي ، مما يضمن استيفائها للمعايير الأخلاقية والالتزام بالمتطلبات التنظيمية.

لا تعمل حلول البرامج هذه على تبسيط عمليات الامتثال فحسب ، بل تساهم أيضًا في تطوير ونشر نماذج ذكاء اصطناعي أكثر دقة وأخلاقية وفعالية. من خلال الاستفادة من التكنولوجيا لمواجهة تحديات الذكاء الاصطناعي المسؤول ، يمكن للمنظمات تعزيز الثقة في أنظمة الذكاء الاصطناعي وإطلاق العنان لإمكاناتها الكاملة.

أهمية الذكاء الاصطناعي المسؤول

باختصار ، الذكاء الاصطناعي المسؤول هو الأساس لتطوير أنظمة ذكاء اصطناعي دقيقة وفعالة وجديرة بالثقة ؛ من خلال معالجة التحيزات ، وتعزيز التعميم ، وضمان الشفافية وحماية خصوصية المستخدم ، يؤدي الذكاء الاصطناعي المسؤول إلى نماذج ذكاء اصطناعي ذات أداء أفضل. يعد الامتثال للوائح والمبادئ التوجيهية الأخلاقية أمرًا ضروريًا في تعزيز ثقة الجمهور وقبول تقنيات الذكاء الاصطناعي ، ومع استمرار تقدم الذكاء الاصطناعي وتغلغل في حياتنا ، ستزداد الحاجة إلى حلول برمجية تدعم ممارسات الذكاء الاصطناعي المسؤولة.

من خلال تبني هذه المسؤولية ، يمكننا ضمان الاندماج الناجح للذكاء الاصطناعي في المجتمع وتسخير قوته لخلق مستقبل أفضل للجميع!

آرون فليشمان شريك في تولا كابيتال.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى