مقالات التقنية

أخلاقيات الابتكار في الذكاء الاصطناعي التوليدي ومستقبل البشرية


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


يتمتع الذكاء الاصطناعي بالقدرة على تغيير النسيج الاجتماعي والثقافي والاقتصادي للعالم. تمامًا كما أدى التلفزيون والهاتف الخلوي والإنترنت إلى إحداث تحول جماعي ، فإن تطورات الذكاء الاصطناعي التوليدية مثل ChatGPT ستخلق فرصًا جديدة لم تتخيلها البشرية بعد.

ومع ذلك ، مع القوة العظمى تأتي مخاطرة كبيرة. ليس سراً أن الذكاء الاصطناعي التوليدي قد أثار أسئلة جديدة حول الأخلاق والخصوصية ، وأحد أكبر المخاطر هو أن المجتمع سيستخدم هذه التكنولوجيا بشكل غير مسؤول. لتجنب هذه النتيجة ، من الأهمية بمكان ألا يتجاوز الابتكار المساءلة. يجب تطوير إرشادات تنظيمية جديدة بنفس المعدل الذي نشهد فيه قيام اللاعبين الرئيسيين في التكنولوجيا بإطلاق تطبيقات ذكاء اصطناعي جديدة.

لفهم الألغاز الأخلاقية حول الذكاء الاصطناعي التوليدي تمامًا – وتأثيرها المحتمل على مستقبل سكان العالم – يجب أن نتراجع خطوة إلى الوراء لفهم هذه النماذج اللغوية الكبيرة ، وكيف يمكنها إحداث تغيير إيجابي ، وأين قد تقصر.

تحديات الذكاء الاصطناعي التوليدي

يجيب البشر على الأسئلة بناءً على التركيب الجيني (الطبيعة) والتعليم والتعلم الذاتي والمراقبة (التنشئة). من ناحية أخرى ، تمتلك آلة مثل ChatGPT بيانات العالم في متناول يدها. مثلما تؤثر التحيزات البشرية على استجاباتنا ، فإن مخرجات الذكاء الاصطناعي متحيزة من خلال البيانات المستخدمة لتدريبه. نظرًا لأن البيانات غالبًا ما تكون شاملة وتحتوي على العديد من وجهات النظر ، فإن الإجابة التي يقدمها الذكاء الاصطناعي التوليدي تعتمد عليها كيف تسأل السؤال.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

يتمتع الذكاء الاصطناعي بإمكانية الوصول إلى تريليونات تيرابايت من البيانات ، مما يسمح للمستخدمين “بتركيز” انتباههم من خلال الهندسة أو البرمجة الفورية لجعل المخرجات أكثر دقة. هذا ليس سلبي إذا تم استخدام التكنولوجيا يقترح الإجراءات ، ولكن الحقيقة هي أنه يمكن استخدام الذكاء الاصطناعي التوليدي صنع القرارات التي تؤثر على حياة البشر.

على سبيل المثال ، عند استخدام نظام ملاحة ، يحدد الإنسان الوجهة ، ويحسب الجهاز أسرع طريق استنادًا إلى جوانب مثل بيانات حركة المرور على الطريق. ولكن إذا طُلب من نظام الملاحة تحديد الوجهة ، فهل يتناسب عملها مع النتيجة المرجوة للإنسان؟ علاوة على ذلك ، ماذا لو لم يتمكن الإنسان من التدخل وقرر القيادة في طريق مختلف عما يقترحه نظام الملاحة؟ تم تصميم الذكاء الاصطناعي التوليدي لمحاكاة الأفكار في اللغة البشرية من الأنماط التي شهدتها من قبل ، وليس إنشاء معرفة جديدة أو اتخاذ القرارات. إن استخدام التكنولوجيا لهذا النوع من حالات الاستخدام هو ما يثير مخاوف قانونية وأخلاقية.

حالات الاستخدام في العمل

تطبيقات منخفضة المخاطر

ستركز التطبيقات منخفضة المخاطر والمبررة أخلاقياً دائمًا على نهج مساعد مع وجود إنسان في الحلقة ، حيث يكون لدى الإنسان المساءلة.

على سبيل المثال ، إذا تم استخدام ChatGPT في فصل الأدب بالجامعة ، يمكن للأستاذ الاستفادة من المعرفة التقنية لمساعدة الطلاب على مناقشة الموضوعات المطروحة واختبار الضغط على فهمهم للمادة. هنا ، يدعم الذكاء الاصطناعي التفكير الإبداعي بنجاح ويوسع وجهات نظر الطلاب كأداة تعليمية تكميلية – إذا كان الطلاب قد قرأوا المواد ويمكنهم قياس الأفكار المحاكاة للذكاء الاصطناعي مقابل أفكارهم الخاصة.

تطبيقات متوسطة الخطورة

تمثل بعض التطبيقات مخاطر متوسطة وتتطلب انتقادات إضافية بموجب اللوائح ، لكن المكافآت يمكن أن تفوق المخاطر عند استخدامها بشكل صحيح. على سبيل المثال ، يمكن للذكاء الاصطناعي تقديم توصيات بشأن العلاجات والإجراءات الطبية بناءً على التاريخ الطبي للمريض والأنماط التي يحددها في مرضى مشابهين. ومع ذلك ، فإن المضي قدمًا في هذه التوصية دون استشارة خبير طبي بشري يمكن أن يكون له عواقب وخيمة. في نهاية المطاف ، القرار – وكيفية استخدام بياناته الطبية – متروك للمريض ، ولكن لا ينبغي استخدام الذكاء الاصطناعي التوليدي لإنشاء خطة رعاية دون ضوابط وتوازنات مناسبة.

تطبيقات محفوفة بالمخاطر

تتميز التطبيقات عالية المخاطر بنقص المساءلة البشرية والقرارات المستقلة التي يحركها الذكاء الاصطناعي. على سبيل المثال ، لا يمكن تصور “قاضي منظمة العفو الدولية” الذي يترأس قاعة المحكمة وفقًا لقوانيننا. يمكن للقضاة والمحامين استخدام الذكاء الاصطناعي لإجراء أبحاثهم واقتراح مسار عمل للدفاع أو الادعاء ، ولكن عندما تتحول التكنولوجيا إلى أداء دور القاضي ، فإنها تشكل تهديدًا مختلفًا. القضاة هم أمناء سيادة القانون ، ويلتزمون بالقانون وضميرهم – وهو ما لا تملكه منظمة العفو الدولية. قد تكون هناك طرق في المستقبل للذكاء الاصطناعي لمعاملة الناس بإنصاف ودون تحيز ، ولكن في حالتنا الحالية ، يمكن للبشر فقط أن يتحملوا مسؤولية أفعالهم.

خطوات فورية نحو المساءلة

لقد دخلنا مرحلة حاسمة في العملية التنظيمية للذكاء الاصطناعي التوليدي ، حيث يجب النظر في تطبيقات مثل هذه في الممارسة العملية. لا توجد إجابة سهلة لأننا نواصل البحث في سلوك الذكاء الاصطناعي وتطوير الإرشادات ، ولكن هناك أربع خطوات يمكننا اتخاذها الآن لتقليل المخاطر الفورية:

  1. الحكم الذاتي: يجب أن تتبنى كل منظمة إطارًا للاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي داخل شركتها. قبل أن يتم وضع اللوائح وتصبح قانونية ، يمكن للحكم الذاتي أن يظهر ما يصلح وما لا يصلح.
  2. اختبارات: يعد إطار الاختبار الشامل أمرًا بالغ الأهمية – وهو إطار يتبع القواعد الأساسية لاتساق البيانات ، مثل اكتشاف التحيز في البيانات ، وقواعد البيانات الكافية لجميع الديموغرافيات والمجموعات ، وصحة البيانات. يمكن أن يضمن اختبار هذه التحيزات والتناقضات تطبيق إخلاء المسؤولية والتحذيرات على الناتج النهائي ، تمامًا مثل الأدوية التي تستلزم وصفة طبية حيث يتم ذكر جميع الآثار الجانبية المحتملة. يجب أن يكون الاختبار مستمرًا ويجب ألا يقتصر على إصدار ميزة مرة واحدة.
  3. العمل المسؤول: المساعدة البشرية مهمة بغض النظر عن مدى ذكاء الذكاء الاصطناعي التوليدي “الذكي”. من خلال ضمان أن الإجراءات التي يحركها الذكاء الاصطناعي تمر عبر مرشح بشري ، يمكننا ضمان الاستخدام المسؤول للذكاء الاصطناعي والتأكد من أن الممارسات يتحكم فيها الإنسان وتحكمها بشكل صحيح من البداية.
  4. التقييم المستمر للمخاطر: دراسة ما إذا كانت واقعة الاستخدام تندرج ضمن فئة المخاطر المنخفضة أو المتوسطة أو العالية ، والتي يمكن أن تكون معقدة ، سيساعد في تحديد الإرشادات المناسبة التي يجب تطبيقها لضمان المستوى الصحيح من الحوكمة. لن يؤدي نهج “مقاس واحد يناسب الجميع” إلى حوكمة فعالة.

ChatGTP هو مجرد غيض من فيض للذكاء الاصطناعي التوليدي. تتقدم التكنولوجيا بسرعة فائقة ، وسيحدد تحمل المسؤولية الآن كيف تؤثر ابتكارات الذكاء الاصطناعي على الاقتصاد العالمي ، من بين العديد من النتائج الأخرى. نحن في مكان مثير للاهتمام في تاريخ البشرية حيث يتم التشكيك في “إنسانيتنا” من قبل التكنولوجيا التي تحاول تقليدنا.

ينتظر عالم جديد وجريء ، وعلينا أن نكون مستعدين بشكل جماعي لمواجهته.

رولف شوارتزمان ، دكتوراه ، عضو في المجلس الاستشاري لأمن المعلومات في Icertismann.

مونيش داردا هو الشريك المؤسس ورئيس قسم التكنولوجيا في Icertis.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى