انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر
“يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى ، مثل الأوبئة والحرب النووية.”
يعكس هذا البيان ، الذي أصدره مركز أمان الذكاء الاصطناعي (CAIS) هذا الأسبوع ، قلقًا شاملاً – وقد يقول البعض تجاوز الحد – القلق بشأن سيناريوهات يوم القيامة بسبب الذكاء الفائق الجامح. يعكس بيان CAIS المخاوف السائدة التي تم التعبير عنها في محادثات صناعة الذكاء الاصطناعي على مدار الشهرين الماضيين: أي أن التهديدات الوجودية قد تظهر على مدار العقد أو العقدين المقبلين ما لم يتم تنظيم تقنية الذكاء الاصطناعي بشكل صارم على نطاق عالمي.
تم التوقيع على البيان من قبل شخص من الخبراء الأكاديميين وشخصيات التكنولوجيا البارزة بدءًا من جيفري هينتون (الذي كان يعمل سابقًا في Google ومؤيد التعلم العميق منذ فترة طويلة) إلى ستيوارت راسل (أستاذ علوم الكمبيوتر في بيركلي) وليكس فريدمان (أ عالم أبحاث ومضيف بودكاست من معهد ماساتشوستس للتكنولوجيا). بالإضافة إلى الانقراض ، يحذر مركز أمان الذكاء الاصطناعي من مخاوف مهمة أخرى تتراوح من ضعف التفكير البشري إلى التهديدات من المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي والتي تقوض عملية صنع القرار المجتمعي.
يلفه السواد، محاط بالغم
في مقال نُشر في صحيفة نيويورك تايمز ، قال المدير التنفيذي لـ CAIS دان هندريكس: “هناك مفهوم خاطئ شائع جدًا ، حتى في مجتمع الذكاء الاصطناعي ، وهو أن هناك عددًا قليلاً فقط من المنكوبين. ولكن ، في الواقع ، يعرب العديد من الأشخاص بشكل خاص عن مخاوفهم بشأن هذه الأشياء “.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
“Doomers” هي الكلمة الأساسية في هذا البيان. من الواضح أن هناك الكثير من حديث العذاب الدائر الآن. على سبيل المثال ، غادر هينتون Google مؤخرًا حتى يتمكن من الشروع في جولة تهددنا جميعًا بالذكاء الاصطناعي.
في جميع أنحاء مجتمع الذكاء الاصطناعي ، أصبح مصطلح “P (الموت)” شائعًا لوصف احتمالية حدوث مثل هذا الهلاك. P (الموت) هي محاولة لتحديد مخاطر سيناريو يوم القيامة حيث يتسبب الذكاء الاصطناعي ، وخاصة الذكاء الاصطناعي الفائق الذكاء ، في إلحاق ضرر جسيم بالبشرية أو حتى يؤدي إلى انقراض الإنسان.
في بودكاست هارد فورك الأخير ، حدد كيفن روز من صحيفة نيويورك تايمز معدل P (الموت) بنسبة 5 ٪. أجيا كوترا ، خبيرة السلامة في الذكاء الاصطناعي مع Open Philanthropy وضيف في العرض ، حددت P (الموت) بنسبة 20 إلى 30 ٪. ومع ذلك ، يجب أن يقال إن P (العذاب) هو مجرد تخمين وذاتي ، وهو انعكاس للمعتقدات والمواقف الفردية تجاه مخاطر الذكاء الاصطناعي – وليس مقياسًا نهائيًا لهذا الخطر.
لا يشتري الجميع قصة عذاب الذكاء الاصطناعي. في الواقع ، يجادل بعض خبراء الذكاء الاصطناعي بالعكس. ومن بين هؤلاء أندرو نج (الذي أسس وقاد مشروع Google Brain) وبيدرو دومينغوس (أستاذ علوم وهندسة الكمبيوتر في جامعة واشنطن ومؤلف كتاب الخوارزمية الرئيسية). يجادلون ، بدلاً من ذلك ، بأن الذكاء الاصطناعي جزء من الحل. كما ذكر Ng ، هناك بالفعل مخاطر وجودية ، مثل تغير المناخ والأوبئة في المستقبل ، ويمكن أن يكون الذكاء الاصطناعي جزءًا من كيفية معالجة هذه الأمور والتخفيف منها على أمل.
التغلب على التأثير الإيجابي للذكاء الاصطناعي
ميلاني ميتشل ، باحثة بارزة في الذكاء الاصطناعي ، متشككة أيضًا في تفكير يوم القيامة. ميتشل هو أستاذ ديفيس للتعقيد في معهد سانتا في ومؤلف الذكاء الاصطناعي: دليل لتفكير البشر. من بين حججها أن الذكاء لا يمكن فصله عن التنشئة الاجتماعية.
في نحو علم البيانات، جيريمي هاريس ، المؤسس المشارك لشركة Gladstone AI للسلامة ، يفسر ميتشل على أنه يجادل بأن نظام الذكاء الاصطناعي الذكي من المحتمل أن يصبح اجتماعيًا من خلال انتقاء الفطرة السليمة والأخلاق كمنتج ثانوي لتطوره ، وبالتالي ، من المحتمل أن يكون آمنًا .
في حين أن مفهوم P (الموت) يعمل على تسليط الضوء على المخاطر المحتملة للذكاء الاصطناعي ، فإنه يمكن أن يطغى عن غير قصد على جانب حاسم من النقاش: التأثير الإيجابي الذي يمكن أن يكون للذكاء الاصطناعي على تخفيف التهديدات الوجودية.
ومن ثم ، لتحقيق التوازن في المحادثة ، يجب أن نفكر أيضًا في احتمال آخر أطلق عليه “P (حل)” أو “P (sol)” ، وهو احتمال أن يلعب الذكاء الاصطناعي دورًا في معالجة هذه التهديدات. لإعطائك فكرة عن وجهة نظري ، أقدر أن P (العذاب) تبلغ حوالي 5 ٪ ، لكن P (sol) تقترب من 80 ٪. يعكس هذا اعتقادي بأنه على الرغم من أنه لا ينبغي استبعاد المخاطر ، إلا أن الفوائد المحتملة للذكاء الاصطناعي يمكن أن تكون كبيرة بما يكفي لتفوقها.
هذا لا يعني أنه لا توجد مخاطر أو أنه لا ينبغي لنا اتباع أفضل الممارسات واللوائح لتجنب أسوأ الاحتمالات التي يمكن تخيلها. ومع ذلك ، فإنه يجب علينا ألا نركز فقط على النتائج أو الادعاءات السيئة المحتملة ، كما يفعل منشور في منتدى الإيثار الفعال ، وهذا العذاب هو تقصير احتمالا.
مشكلة المحاذاة
القلق الأساسي ، وفقًا للعديد من المنكوبين ، هو مشكلة التوافق ، حيث لا تتوافق أهداف الذكاء الاصطناعي الفائق مع القيم الإنسانية أو الأهداف المجتمعية. على الرغم من أن الموضوع يبدو جديدًا مع ظهور ChatGPT ، إلا أن هذا القلق ظهر منذ ما يقرب من 65 عامًا. كما ذكرت The Economist ، نشر نوربرت وينر – رائد الذكاء الاصطناعي وأب علم التحكم الآلي – مقالاً في عام 1960 يصف مخاوفه بشأن عالم “تتعلم فيه الآلات” و “تطور استراتيجيات غير متوقعة بمعدلات تحير مبرمجيها”.
تم عرض مشكلة المحاذاة لأول مرة في فيلم عام 1968 2001: رحلة فضائية. عمل مارفن مينسكي ، وهو رائد آخر في مجال الذكاء الاصطناعي ، كمستشار تقني للفيلم. في الفيلم ، يبدأ الكمبيوتر HAL 9000 الذي يوفر الذكاء الاصطناعي على متن سفينة الفضاء Discovery One في التصرف بطرق تتعارض مع مصالح أفراد الطاقم. تظهر مشكلة محاذاة الذكاء الاصطناعي عندما تختلف أهداف HAL عن أهداف الطاقم البشري.
عندما تعلم HAL خطط الطاقم لفصلها بسبب مخاوف بشأن سلوكها ، ترى HAL أن هذا يمثل تهديدًا لنجاح المهمة وتستجيب بمحاولة القضاء على أفراد الطاقم. الرسالة هي أنه إذا لم تكن أهداف الذكاء الاصطناعي متوافقة تمامًا مع القيم والأهداف الإنسانية ، فقد يتخذ الذكاء الاصطناعي إجراءات ضارة أو حتى مميتة للبشر ، حتى لو لم تتم برمجتها بشكل صريح للقيام بذلك.
تقدم سريعًا إلى الأمام 55 عامًا ، وهذا هو نفس اهتمام المحاذاة الذي يحرك الكثير من محادثة يوم القيامة الحالية. القلق هو أن نظام الذكاء الاصطناعي قد يتخذ إجراءات ضارة حتى دون أن ينوي أحد القيام بذلك. تعمل العديد من منظمات الذكاء الاصطناعي الرائدة بجد لحل هذه المشكلة. نشر Google DeepMind مؤخرًا ورقة بحثية حول أفضل طريقة لتقييم أنظمة الذكاء الاصطناعي الجديدة ذات الأغراض العامة للقدرات الخطرة والمواءمة ولتطوير “نظام إنذار مبكر” باعتباره جانبًا حاسمًا في استراتيجية الذكاء الاصطناعي المسؤولة.
مفارقة كلاسيكية
بالنظر إلى هذين الجانبين من المناقشة – P (الموت) أو P (سول) – لا يوجد إجماع على مستقبل الذكاء الاصطناعي. يبقى السؤال: هل نتجه نحو سيناريو هلاك أم مستقبل واعد يعززه الذكاء الاصطناعي؟ هذه مفارقة كلاسيكية. من ناحية ، هناك أمل في أن يكون الذكاء الاصطناعي هو الأفضل منا وأن يحل المشاكل المعقدة وينقذ البشرية. على الجانب الآخر ، سيخرج الذكاء الاصطناعي أسوأ ما فينا من خلال التعتيم على الحقيقة ، وتدمير الثقة ، وفي النهاية الإنسانية.
مثل كل المفارقات ، الجواب غير واضح. ما هو مؤكد هو الحاجة إلى اليقظة المستمرة والتطوير المسؤول في الذكاء الاصطناعي. وبالتالي ، حتى إذا لم تقبل سيناريو يوم القيامة ، فلا يزال من المنطقي اتباع لوائح المنطق السليم لمنع حدوث موقف غير متوقع ولكنه خطير. المخاطر ، كما ذكّرنا مركز أمان الذكاء الاصطناعي ، ليست أقل من مستقبل البشرية نفسها.
غاري غروسمان هو نائب الرئيس الأول لممارسة التكنولوجيا في Edelman والقائد العالمي لمركز Edelman AI للتميز.
صانعي القرار
مرحبًا بك في مجتمع VentureBeat!
DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص التقنيين الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.
إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.
يمكنك حتى التفكير في المساهمة بمقال خاص بك!
قراءة المزيد من DataDecisionMakers
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.