مقالات التقنية

قد لا يحمينا تنظيم الذكاء الاصطناعي القادم من الذكاء الاصطناعي الخطير


تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.


معظم أنظمة الذكاء الاصطناعي اليوم عبارة عن شبكات عصبية. الشبكات العصبية هي خوارزميات تحاكي الدماغ البيولوجي لمعالجة كميات هائلة من البيانات. من المعروف أنها سريعة ، لكنها غامضة. تتطلب الشبكات العصبية كميات هائلة من البيانات لتعلم كيفية اتخاذ القرارات ؛ ومع ذلك ، فإن أسباب قراراتهم مخفية داخل طبقات لا حصر لها من الخلايا العصبية الاصطناعية ، وكلها مضبوطة بشكل منفصل على معايير مختلفة.

بعبارة أخرى ، الشبكات العصبية هي “صناديق سوداء”. ومطورو الشبكة العصبية لا يتحكمون فقط في ما يفعله الذكاء الاصطناعي ، بل إنهم لا يعرفون لماذا يفعل ما يفعله.

هذه حقيقة مرعبة. لكن الأمر يزداد سوءًا.

على الرغم من المخاطر الكامنة في التكنولوجيا ، بدأت الشبكات العصبية في تشغيل البنية التحتية الرئيسية للأعمال التجارية والوظائف الحكومية الهامة. مع انتشار أنظمة الذكاء الاصطناعي ، تزداد قائمة أمثلة الشبكات العصبية الخطيرة كل يوم. على سبيل المثال:

حدث

قمة الأمن الذكي عند الطلب

تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.

مشاهدة هنا

تتراوح هذه النتائج من القاتلة إلى الكوميدية إلى الهجومية الفادحة. وطالما أن الشبكات العصبية قيد الاستخدام ، فإننا معرضون لخطر الضرر بعدة طرق. الشركات والمستهلكون قلقون بحق أنه طالما بقي الذكاء الاصطناعي مبهمة، يبقى خطير.

استجابة تنظيمية قادمة

استجابةً لمثل هذه المخاوف ، اقترح الاتحاد الأوروبي قانونًا للذكاء الاصطناعي – من المقرر أن يصبح قانونًا بحلول يناير – وأعدت الولايات المتحدة مشروع قانون حقوق الذكاء الاصطناعي. كلاهما يعالج مشكلة التعتيم وجهاً لوجه.

ينص قانون الاتحاد الأوروبي للذكاء الاصطناعي على أن أنظمة الذكاء الاصطناعي “عالية المخاطر” يجب أن تُبنى بشفافية ، مما يسمح للمؤسسة بتحديد وتحليل البيانات التي يحتمل أن تكون متحيزة وإزالتها من جميع التحليلات المستقبلية. يزيل الصندوق الأسود بالكامل. يحدد قانون الاتحاد الأوروبي للذكاء الاصطناعي الأنظمة عالية المخاطر لتشمل البنية التحتية الحيوية والموارد البشرية والخدمات الأساسية وإنفاذ القانون ومراقبة الحدود والاجتهاد القضائي والمراقبة. في الواقع ، فإن كل تطبيق ذكاء اصطناعي رئيسي يتم تطويره للاستخدام الحكومي والمؤسسات تقريبًا سيكون مؤهلاً ليكون نظامًا عالي الخطورة للذكاء الاصطناعي ، وبالتالي سيخضع لقانون الاتحاد الأوروبي للذكاء الاصطناعي.

وبالمثل ، تؤكد وثيقة الحقوق الأمريكية لمنظمة العفو الدولية أن المستخدمين يجب أن يكونوا قادرين على فهم الأنظمة الآلية التي تؤثر على حياتهم. لها نفس هدف قانون الاتحاد الأوروبي للذكاء الاصطناعي: حماية الجمهور من الخطر الحقيقي المتمثل في أن يصبح الذكاء الاصطناعي الغامض خطيرًا منظمة العفو الدولية. مخطط المخطط حاليًا هو ورق أبيض غير ملزم وبالتالي بلا أسنان. ومع ذلك ، قد تكون طبيعتها المؤقتة فضيلة ، لأنها ستمنح علماء الذكاء الاصطناعي والدعاة الوقت للعمل مع المشرعين لصياغة القانون بشكل مناسب.

على أي حال ، يبدو من المحتمل أن يطلب كل من الاتحاد الأوروبي والولايات المتحدة من المنظمات اعتماد أنظمة ذكاء اصطناعي توفر مخرجات قابلة للتفسير لمستخدميها. باختصار ، قد يحتاج الذكاء الاصطناعي في المستقبل إلى الشفافية ، وليس الغموض.

لكن هل تذهب بعيدا بما فيه الكفاية؟

يمثل إنشاء أنظمة تنظيمية جديدة تحديًا دائمًا. يقدم لنا التاريخ الكثير من الأمثلة على التشريعات غير الحكيمة التي تسحق بطريق الخطأ الصناعات الجديدة الواعدة. لكنها تقدم أيضًا أمثلة معاكسة حيث أفادت التشريعات المصاغة جيدًا كلاً من المؤسسات الخاصة والرفاهية العامة.

على سبيل المثال ، عندما بدأت ثورة الدوت كوم ، كان قانون حقوق النشر وراء التكنولوجيا التي كان من المفترض أن يحكمها. ونتيجة لذلك ، شاب السنوات الأولى من عصر الإنترنت دعاوى قضائية شديدة تستهدف الشركات والمستهلكين. في النهاية ، تم تمرير قانون الألفية الجديدة لحقوق طبع ونشر المواد الرقمية (DMCA). بمجرد أن تكيفت الشركات والمستهلكون مع القوانين الجديدة ، بدأت شركات الإنترنت في الازدهار وازدهرت ابتكارات مثل وسائل التواصل الاجتماعي ، والتي كان من المستحيل بموجب القوانين القديمة ، أن تزدهر.

لقد أدرك قادة صناعة الذكاء الاصطناعي الذين يتطلعون للمستقبل منذ فترة طويلة أن إطارًا تشريعيًا مماثلًا سيكون ضروريًا لتقنية الذكاء الاصطناعي للوصول إلى إمكاناتها الكاملة. سيوفر مخطط تنظيمي جيد التصميم للمستهلكين أمان الحماية القانونية لبياناتهم وخصوصيتهم وأمانهم ، بينما يمنح الشركات لوائح واضحة وموضوعية يمكنهم بموجبها استثمار الموارد بثقة في أنظمة مبتكرة.

لسوء الحظ ، لا يلبي قانون منظمة العفو الدولية ولا وثيقة حقوق منظمة العفو الدولية هذه الأهداف. لا يتطلب أي من الإطارين شفافية كافية من أنظمة الذكاء الاصطناعي. لا يوفر أي من الإطارين حماية كافية للجمهور أو تنظيمًا كافيًا للأعمال.

أشارت سلسلة من التحليلات المقدمة إلى الاتحاد الأوروبي إلى عيوب قانون الذكاء الاصطناعي. (يمكن توجيه انتقادات مماثلة إلى قانون حقوق الذكاء الاصطناعي ، مع شرط إضافي مفاده أن إطار العمل الأمريكي لا يُقصد منه أن يكون سياسة ملزمة). وتشمل هذه العيوب ما يلي:

  • لا تقدم أي معايير لتحديد المخاطر غير المقبولة لأنظمة الذكاء الاصطناعي ولا توجد طريقة لإضافة تطبيقات جديدة عالية المخاطر إلى القانون إذا تم اكتشاف أن هذه التطبيقات تشكل خطرًا كبيرًا من الضرر. هذا يمثل مشكلة خاصة لأن أنظمة الذكاء الاصطناعي أصبحت أوسع في فائدتها.
  • اشتراط فقط أن تأخذ الشركات في الحسبان الضرر الذي يلحق بالأفراد ، باستثناء اعتبارات الأضرار غير المباشرة والمجمعة التي تلحق بالمجتمع. قد يكون لنظام الذكاء الاصطناعي الذي له تأثير ضئيل للغاية ، على سبيل المثال ، أنماط التصويت لكل شخص في المجمل تأثير اجتماعي ضخم.
  • عدم السماح فعليًا بأي رقابة عامة على تقييم ما إذا كان الذكاء الاصطناعي يفي بمتطلبات القانون. بموجب قانون الذكاء الاصطناعي ، تقوم الشركات بإجراء تقييم ذاتي لأنظمة الذكاء الاصطناعي الخاصة بها للتأكد من امتثالها دون تدخل أي سلطة عامة. وهذا يعادل مطالبة شركات الأدوية بأن تقرر بنفسها ما إذا كانت الأدوية آمنة – وهي ممارسة وجدت كل من الولايات المتحدة والاتحاد الأوروبي أنها ضارة للجمهور.
  • عدم التحديد الجيد للطرف المسؤول عن تقييم الذكاء الاصطناعي للأغراض العامة. إذا كان من الممكن استخدام الذكاء الاصطناعي للأغراض العامة لأغراض عالية المخاطر ، فهل ينطبق عليه القانون؟ إذا كان الأمر كذلك ، فهل منشئ الذكاء الاصطناعي للأغراض العامة مسؤول عن الامتثال ، أم أن الشركة التي تضع الذكاء الاصطناعي في استخدام عالي المخاطر؟ هذا الغموض يخلق ثغرة تحفز على تحويل اللوم. يمكن أن تدعي كلتا الشركتين أن التقييم الذاتي يقع على عاتق شريكهما ، وليس مسؤوليتهما.

لكي ينتشر الذكاء الاصطناعي بأمان في أمريكا وأوروبا ، يجب معالجة هذه العيوب.

ماذا تفعل حيال الذكاء الاصطناعي الخطير حتى ذلك الحين

حتى يتم وضع اللوائح المناسبة ، ستستمر شبكات الصندوق الأسود العصبية في استخدام البيانات الشخصية والمهنية بطرق غير شفافة تمامًا بالنسبة لنا. ما الذي يمكن أن يفعله شخص ما لحماية نفسه من الذكاء الاصطناعي الغامض؟ كحد أدنى:

  • اسال اسئلة. إذا تعرضت للتمييز أو الرفض بطريقة ما من قبل خوارزمية ، اسأل الشركة أو البائع ، “لماذا؟” إذا لم يتمكنوا من الإجابة على هذا السؤال ، فأعد النظر فيما إذا كان يجب التعامل معهم. لا يمكنك الوثوق في نظام ذكاء اصطناعي يقوم بما هو صحيح إذا كنت لا تعرف حتى سبب قيامه بما يفعله.
  • كن مدروسًا بشأن البيانات التي تشاركها. هل يحتاج كل تطبيق على هاتفك الذكي إلى معرفة موقعك؟ هل تحتاج كل منصة تستخدمها إلى المرور عبر عنوان بريدك الإلكتروني الأساسي؟ يمكن أن يقطع مستوى الحد الأدنى في مشاركة البيانات شوطًا طويلاً نحو حماية خصوصيتك.
  • حيثما أمكن ، قم فقط بأعمال تجارية مع الشركات التي تتبع أفضل الممارسات لحماية البيانات والتي تستخدم أنظمة الذكاء الاصطناعي الشفافة.
  • والأهم من ذلك ، دعم اللوائح التنظيمية التي من شأنها تعزيز القابلية للتفسير والشفافية. يستحق الجميع فهم سبب تأثير الذكاء الاصطناعي على حياتهم بالطريقة التي يؤثر بها.

مخاطر الذكاء الاصطناعي حقيقية ، لكن الفوائد كذلك. في معالجة مخاطر الذكاء الاصطناعي الغامض الذي يؤدي إلى نتائج خطيرة ، يرسم قانون حقوق الذكاء الاصطناعي وقانون الذكاء الاصطناعي المسار الصحيح للمستقبل. لكن مستوى التنظيم ليس قويًا بما يكفي بعد.

مايكل كابس هو الرئيس التنفيذي لشركة Diveplane.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى