مقالات التقنية

تجنب مخاطر الذكاء الاصطناعي التوليدي


يحظى الذكاء الاصطناعي التوليدي باهتمام كبير من الجمهور والمستثمرين. لكنهم يتجاهلون مجازفة أساسية.

عندما تم إطلاق ChatGPT في نوفمبر ، مما سمح للمستخدمين بإرسال أسئلة إلى روبوت محادثة والحصول على ردود من إنتاج الذكاء الاصطناعي ، دخلت الإنترنت في حالة جنون. أعلن قادة الفكر أن التكنولوجيا الجديدة يمكن أن تحول القطاعات من وسائل الإعلام إلى الرعاية الصحية (لقد اجتازت مؤخرًا جميع الأجزاء الثلاثة من امتحان الترخيص الطبي الأمريكي).

استثمرت Microsoft بالفعل مليارات الدولارات في شراكتها مع المنشئ OpenAI ، بهدف نشر التكنولوجيا على نطاق عالمي ، مثل دمجها في محرك البحث Bing. لا شك أن المديرين التنفيذيين يأملون في أن يساعد هذا عملاق التكنولوجيا ، الذي تأخر في البحث ، على اللحاق بشركة Google الرائدة في السوق.

ChatGPT هو نوع واحد فقط من الذكاء الاصطناعي التوليدي. الذكاء الاصطناعي التوليدي هو نوع من الذكاء الاصطناعي الذي ، عند إعطائه مجموعة بيانات تدريبية ، قادر على توليد بيانات جديدة بناءً عليها ، مثل الصور ، والأصوات ، أو في حالة روبوت المحادثة ، النص. يمكن أن تنتج نماذج الذكاء الاصطناعي التوليدية نتائج أسرع بكثير من البشر ، لذلك يمكن إنشاء قيمة هائلة. تخيل ، على سبيل المثال ، بيئة إنتاج أفلام يولد فيها الذكاء الاصطناعي مناظر طبيعية وشخصيات جديدة متقنة دون الاعتماد على العين البشرية.

بعض قيود الذكاء الاصطناعي التوليدي

ومع ذلك ، فإن الذكاء الاصطناعي التوليدي ليس هو الحل لكل حالة أو صناعة. عندما يتعلق الأمر بالألعاب والفيديو والصور وحتى القصائد ، يمكن أن تنتج مخرجات شيقة ومفيدة. ولكن عند التعامل مع التطبيقات ذات المهام الحرجة ، والمواقف التي تكون فيها الأخطاء مكلفة للغاية ، أو عندما لا نريد التحيز ، فقد يكون ذلك خطيرًا للغاية.

خذ ، على سبيل المثال ، منشأة رعاية صحية في منطقة نائية ذات موارد محدودة ، حيث يتم استخدام الذكاء الاصطناعي لتحسين التشخيص وتخطيط العلاج. أو مدرسة حيث يمكن لمعلم واحد توفير تدريب شخصي للطلاب المختلفين بناءً على مستويات مهاراتهم الفريدة من خلال تخطيط الدروس الموجه بالذكاء الاصطناعي.

في هذه المواقف ، قد يبدو ، ظاهريًا ، أن الذكاء الاصطناعي التوليدي يخلق قيمة ولكن في الواقع ، قد يؤدي إلى مجموعة من التعقيدات. كيف نعرف أن التشخيصات صحيحة؟ ماذا عن التحيز الذي قد يكون متأصلاً في المواد التعليمية؟

تعتبر نماذج الذكاء الاصطناعي التوليدية نماذج “الصندوق الأسود”. من المستحيل أن نفهم كيف يتوصلون إلى مخرجاتهم ، حيث لا يتم توفير المنطق الأساسي. غالبًا ما يكافح الباحثون المحترفون لفهم الأعمال الداخلية لمثل هذه النماذج. من المعروف أنه من الصعب ، على سبيل المثال ، تحديد ما الذي يجعل الذكاء الاصطناعي يتعرف بشكل صحيح على صورة عود الثقاب.

باعتبارك مستخدمًا عاديًا لـ ChatGPT أو نموذجًا توليديًا آخر ، فقد يكون لديك فكرة أقل عما تتكون منه بيانات التدريب الأولية. اسأل ChatGPT من أين تأتي بياناته ، وسوف يخبرك ببساطة أنه تم تدريبه على “مجموعة متنوعة من البيانات من الإنترنت”.

مخاطر المخرجات الناتجة عن الذكاء الاصطناعي

هذا يمكن أن يؤدي إلى بعض المواقف الخطرة. نظرًا لأنه لا يمكنك فهم العلاقات والتمثيلات الداخلية التي تعلمها النموذج من البيانات أو معرفة ميزات البيانات الأكثر أهمية للنموذج ، لا يمكنك فهم سبب قيام النموذج بعمل تنبؤات معينة. وهذا يجعل من الصعب اكتشاف – أو تصحيح – الأخطاء أو التحيزات في النموذج.

سجل مستخدمو الإنترنت بالفعل حالات قدمت فيها ChatGPT إجابات خاطئة أو مشكوك فيها ، بدءًا من الفشل في لعبة الشطرنج إلى إنشاء كود Python الذي يحدد من يجب تعذيبه.

وهذه هي الحالات التي كان من الواضح فيها أن الإجابة كانت خاطئة. حسب بعض التقديرات ، فإن 20٪ من إجابات ChatGPT مختلقة. مع تحسن تقنية الذكاء الاصطناعي ، من المتصور أن نتمكن من دخول عالم تقدم فيه روبوتات الدردشة الواثقة بالذكاء الاصطناعي إجابات تبدو صحيحة ، ولا يمكننا معرفة الفرق.

جادل الكثير بأنه يجب أن نكون متحمسين ولكن المضي قدما بحذر. يمكن أن يوفر الذكاء الاصطناعي التوليدي قيمة تجارية هائلة ؛ لذلك ، فإن هذا الخط من الحجج يذهب ، مع إدراكنا للمخاطر ، يجب أن نركز على طرق استخدام هذه النماذج في المواقف العملية – ربما عن طريق تزويدهم بتدريب إضافي على أمل تقليل الإجابة الخاطئة أو معدل “الهلوسة” المرتفع .

ومع ذلك ، قد لا يكون التدريب كافيا. ببساطة عن طريق تدريب النماذج لتحقيق النتائج المرجوة ، يمكننا أن نتصور وضعًا يكافأ فيه الذكاء الاصطناعي على إنتاج النتائج التي يعتبرها حكامهم البشريون ناجحة – تحفيزهم على خداعنا عن قصد. من الناحية الافتراضية ، يمكن أن يتصاعد هذا إلى موقف يتعلم فيه الذكاء الاصطناعي تجنب الوقوع في فخ وبناء نماذج متطورة لتحقيق هذه الغاية ، حتى ، كما توقع البعض ، هزيمة الإنسانية.

مشكلة الملاكمة البيضاء

ما البديل؟ بدلاً من التركيز على كيفية تدريبنا لنماذج الذكاء الاصطناعي التوليدية ، يمكننا استخدام نماذج مثل الصندوق الأبيض أو ML القابل للتفسير. على عكس نماذج الصندوق الأسود مثل الذكاء الاصطناعي التوليدي ، فإن نموذج الصندوق الأبيض يجعل من السهل فهم كيفية قيام النموذج بتنبؤاته والعوامل التي يأخذها في الاعتبار.

على الرغم من أن نماذج الصندوق الأبيض قد تكون معقدة بالمعنى الحسابي ، إلا أنها أسهل في التفسير ، لأنها تتضمن تفسيرات وسياقات. قد يخبرك إصدار مربع أبيض من ChatGPT بما هو عليه يعتقد الإجابة الصحيحة هي ، لكن حدد مدى ثقتها في أنها ، في الواقع ، الإجابة الصحيحة (هل هي واثقة بنسبة 50٪ أم 100٪؟). سيعلمك أيضًا كيف جاءت من هذه الإجابة (أي ما هي مدخلات البيانات التي استندت إليها) ويسمح لك بمشاهدة إصدارات أخرى من نفس الإجابة ، مما يتيح للمستخدم تحديد ما إذا كان يمكن الوثوق بالنتائج.

قد لا يكون هذا ضروريًا لروبوت محادثة بسيط. ومع ذلك ، في حالة يمكن أن يكون للإجابة الخاطئة فيها تداعيات كبيرة (التعليم والتصنيع والرعاية الصحية) ، فإن وجود مثل هذا السياق يمكن أن يغير الحياة. إذا كان الطبيب يستخدم الذكاء الاصطناعي لإجراء التشخيص ولكن يمكنه معرفة مدى ثقة البرنامج في النتيجة ، فإن الموقف يكون أقل خطورة بكثير مما لو كان الطبيب يعتمد ببساطة في جميع قراراته على ناتج خوارزمية غامضة.

الحقيقة هي أن الذكاء الاصطناعي سيلعب دورًا رئيسيًا في قطاع الأعمال والمجتمع للمضي قدمًا. ومع ذلك ، فإن الأمر متروك لنا لاختيار النوع المناسب من الذكاء الاصطناعي للوضع الصحيح.

بيرك بيراند هو المؤسس والرئيس التنفيذي لشركة معامل فيرو.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص التقنيين الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى