Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
مقالات التقنية

تقول شركة OpenAI إنه يجب تنظيم ChatGPT. في غضون ذلك ، استعد لعمليات تدقيق الذكاء الاصطناعي | فوز الذكاء الاصطناعي


تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.


جعلت ميرا موراتي ، CTO في OpenAI ، موقف الشركة من تنظيم الذكاء الاصطناعي واضحًا تمامًا في a وقت مقال نُشر خلال عطلة نهاية الأسبوع: نعم ، يجب تنظيم ChatGPT وأدوات الذكاء الاصطناعي الأخرى.

قالت في المقابلة: “من المهم لشركة OpenAI والشركات مثلنا أن تنقل هذا إلى الوعي العام بطريقة يمكن التحكم فيها ومسؤوليتها”. “لكننا مجموعة صغيرة من الناس ونحتاج إلى الكثير من المدخلات في هذا النظام والكثير من المدخلات التي تتجاوز التقنيات – بالتأكيد المنظمون والحكومات وأي شخص آخر.”

>> اتبع تغطية ChatGPT المستمرة من VentureBeat <<

وعندما سُئلت عما إذا كان من السابق لأوانه تدخل صانعي السياسات والمنظمين ، خوفًا من مخاوف من أن تؤدي مشاركة الحكومة إلى إبطاء الابتكار ، قالت: “ليس الوقت مبكرًا. من المهم جدًا أن يبدأ الجميع في المشاركة ، نظرًا للتأثير الذي ستحدثه هذه التقنيات “.

حدث

قمة الأمن الذكي عند الطلب

تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.

مشاهدة هنا

لوائح الذكاء الاصطناعي – وعمليات تدقيق الذكاء الاصطناعي – قادمة

بطريقة ما ، لا يهم رأي موراتي كثيرًا: تنظيم الذكاء الاصطناعي قادم ، وبسرعة ، وفقًا لأندرو بيرت ، الشريك الإداري لشركة BNH AI ، وهي شركة محاماة صغيرة تأسست في عام 2020 تتكون من محامين وعلماء بيانات وتركز بشكل مباشر على الذكاء الاصطناعي والتحليلات .

وقال إن هذه القوانين غالبًا ما تتطلب عمليات تدقيق للذكاء الاصطناعي ، لذلك تحتاج الشركات إلى الاستعداد الآن.

لم نتوقع حدوث ذلك [already] قال لمجلة VentureBeat ، أن تكون قوانين الذكاء الاصطناعي الجديدة هذه على الكتب التي تقول ما إذا كنت تستخدم نظامًا للذكاء الاصطناعي في هذا المجال ، أو إذا كنت تستخدم الذكاء الاصطناعي بشكل عام فقط ، فأنت بحاجة إلى عمليات تدقيق. أوضح أن العديد من لوائح منظمة العفو الدولية ومتطلبات التدقيق الواردة في الكتب في الولايات المتحدة ، هي في الغالب على مستوى الولاية والبلدية وتتنوع بشكل كبير – بما في ذلك قانون أداة قرار التوظيف الآلي في مدينة نيويورك (AEDT) ومشروع قانون مماثل في نيو جيرسي في الاعمال.

أوضح بيرت أن عمليات التدقيق مطلب ضروري في مجال سريع التطور مثل الذكاء الاصطناعي.

قال: “إن الذكاء الاصطناعي يتحرك بسرعة كبيرة ، ولا يمتلك المنظمون فهمًا دقيقًا تمامًا للتقنيات”. “إنهم يحاولون عدم خنق الابتكار ، لذا إذا كنت منظمًا ، فما الذي يمكنك فعله بالفعل؟ أفضل إجابة يتوصل إليها المنظمون هي أن يقوم بعض الأطراف المستقلة بإلقاء نظرة على نظامك ، وتقييم المخاطر ، ثم إدارة تلك المخاطر وتوثيق كيفية قيامك بكل ذلك “.

كيفية التحضير لعمليات تدقيق الذكاء الاصطناعي

خلاصة القول هي أنك لست بحاجة إلى أن تكون مثل الكاهن لتعرف أن عمليات التدقيق ستكون مكونًا مركزيًا في تنظيم الذكاء الاصطناعي وإدارة المخاطر. السؤال هو كيف يمكن للمنظمات أن تستعد؟

قال بيرت إن الجواب أصبح أسهل وأسهل. “أعتقد أن أفضل إجابة هو أن يكون لديك أولاً برنامج لإدارة مخاطر الذكاء الاصطناعي. أنت بحاجة إلى بعض البرامج لإدارة مخاطر الذكاء الاصطناعي عبر مؤسستك بشكل منهجي وموحد “.

وشدد على أن المرتبة الثانية هي أن المنظمات يجب أن تتبنى إطار عمل إدارة مخاطر NIST AI الجديد (RMF) الذي تم إصداره الأسبوع الماضي.

قال: “من السهل جدًا إنشاء إطار عمل لإدارة المخاطر ومواءمته مع إطار عمل إدارة مخاطر NIST AI داخل المؤسسة”. “إنه مرن ، لذا أعتقد أنه من السهل تنفيذه وتشغيله.”

أربع وظائف أساسية للتحضير لعمليات تدقيق الذكاء الاصطناعي

وأوضح أن NIST AI RMF لها أربع وظائف أساسية: أولاً ، خريطة ، أو تقييم المخاطر التي يمكن أن يخلقها الذكاء الاصطناعي. بعد ذلك ، قم بالقياس – كميًا أو نوعيًا – بحيث يكون لديك برنامج للاختبار بالفعل. بمجرد الانتهاء من الاختبار ، قم بالإدارة – أي تقليل أو توثيق وتبرير المخاطر المناسبة للنظام. أخيرًا ، تحكم – تأكد من أن لديك سياسات وإجراءات مطبقة لا تنطبق فقط على نظام واحد محدد.

وأشار بيرت إلى أن “أنت لا تفعل ذلك على أساس مخصص ، ولكنك تفعل ذلك في جميع المجالات على مستوى المؤسسة”. يمكنك إنشاء برنامج مرن للغاية لإدارة مخاطر الذكاء الاصطناعي حول هذا الموضوع. يمكن لمنظمة صغيرة القيام بذلك وقد ساعدنا شركة Fortune 500 على القيام بذلك.

وتابع أنه من السهل تشغيل RMF ، لكنه أضاف أنه لا يريد أن يخطئ الناس في مرونته لشيء عام للغاية بحيث لا يمكن تنفيذه بالفعل.

قال: “من المفترض أن تكون مفيدة”. “لقد بدأنا بالفعل في رؤية ذلك. لدينا عملاء يأتون إلينا قائلين ، “هذا هو المعيار الذي نريد تنفيذه”.

حان الوقت للشركات للحصول على إجراءات تدقيق الذكاء الاصطناعي الخاصة بهم معًا

على الرغم من أن القوانين ليست “مطبوخة بالكامل” ، قال بيرت إنها لن تكون مفاجأة. لذا فقد حان الوقت لجعل تدقيق الذكاء الاصطناعي يعمل معًا إذا كنت مؤسسة تستثمر في الذكاء الاصطناعي.

قال إن أسهل إجابة هي التوافق مع NIST AI RMF ، لأنه – على عكس الأمن السيبراني ، الذي يحتوي على قواعد لعب موحدة – بالنسبة لمؤسسات المؤسسات الكبيرة ، فإن الطريقة التي يتم بها تدريب الذكاء الاصطناعي ونشره ليست موحدة ، وبالتالي فإن الطريقة التي يتم تقييمها وتوثيقها ر أيضا.

قال: “كل شيء ذاتي ، لكنك لا تريد أن يخلق ذلك مسؤولية لأنه يخلق مخاطر إضافية”. “ما نخبر به العملاء هو أفضل وأسهل مكان للبدء هو توثيق النموذج – قم بإنشاء نموذج توثيق قياسي وتأكد من أن كل نظام ذكاء اصطناعي يتم توثيقه وفقًا لهذا المعيار. أثناء بناء ذلك ، تبدأ في الحصول على ما سأسميه تقريرًا لكل نموذج يمكن أن يوفر الأساس لجميع عمليات التدقيق هذه “.

هل تهتم بالذكاء الاصطناعي؟ استثمر في إدارة مخاطره

وفقًا لبيرت ، لن تحصل المؤسسات على أقصى فائدة من الذكاء الاصطناعي إذا لم تفكر في مخاطره.

قال: “يمكنك نشر نظام ذكاء اصطناعي والحصول على قيمة منه اليوم ، ولكن في المستقبل ، سيعود شيء ما ويعضك”. “لذلك أقول إنك إذا كنت مهتمًا بالذكاء الاصطناعي ، استثمر في إدارة مخاطره. فترة.”

للحصول على أكبر عائد على الاستثمار من جهود الذكاء الاصطناعي ، يجب على الشركات التأكد من أنها لا تنتهك الخصوصية أو تخلق ثغرات أمنية أو تديم التحيز ، مما قد يعرضها للدعاوى القضائية والغرامات التنظيمية والإضرار بالسمعة.

وقال: “التدقيق بالنسبة لي هو مجرد كلمة منبثقة لبعض الأطراف المستقلة التي تنظر إلى النظام وتفهم كيفية تقييمك للمخاطر وكيفية إدارتك لتلك المخاطر”. “وإذا لم تفعل أيًا من هذه الأشياء ، فسيكون التدقيق واضحًا جدًا. ستكون سلبية جدا “.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى