هل يمكننا بناء ذكاء اصطناعي جدير بالثقة؟

هل يمكننا بناء ذكاء اصطناعي جدير بالثقة؟

موقع شبرون للتقنية والأخبار- متابعات تقنية:

سنعتاد قريبًا على استخدام أدوات الذكاء الاصطناعي للمساعدة في حل المشكلات والمهام اليومية. يجب أن نتعود على التشكيك في الدوافع والحوافز والقدرات الكامنة وراءها أيضًا.

تخيل أنك تستخدم روبوت محادثة بالذكاء الاصطناعي للتخطيط لقضاء إجازة. هل اقترح منتجعًا معينًا لأنه يعرف تفضيلاتك ، أو لأن الشركة تحصل على رشوة من سلسلة الفنادق؟ في وقت لاحق ، عندما تستخدم روبوت محادثة آخر يعمل بالذكاء الاصطناعي للتعرف على قضية اقتصادية معقدة ، فهل يعكس برنامج الدردشة الآلي سياستك أو سياسات الشركة التي دربته؟

لكي يكون الذكاء الاصطناعي مساعدنا حقًا ، يجب أن يكون جديرًا بالثقة. لكي تكون جديرة بالثقة ، يجب أن تكون تحت سيطرتنا ؛ لا يمكن أن تعمل وراء الكواليس لبعض احتكار التكنولوجيا. هذا يعني ، على الأقل ، أن التكنولوجيا بحاجة إلى أن تكون شفافة. وعلينا جميعًا أن نفهم كيف يعمل ، على الأقل قليلاً.

وسط التحذيرات التي لا تعد ولا تحصى حول مريب مخاطر على الرفاه والتهديدات ديمقراطيةوحتى وجودي العذاب الذي صاحب التطورات الأخيرة المذهلة في الذكاء الاصطناعي (AI) – ونماذج اللغة الكبيرة (LLMs) مثل محادثةGPT و جيPT-4– رؤية متفائلة واضحة للغاية: هذه التكنولوجيا مفيدة. يمكن أن يساعدك في العثور على المعلومات والتعبير عن أفكارك وتصحيح الأخطاء في كتاباتك وغير ذلك الكثير. إذا تمكنا من التغلب على المزالق ، فإن فائدتها المساعدة للبشرية يمكن أن تحدد العصر. لكننا لم نصل إلى هناك بعد.

دعنا نتوقف للحظة ونتخيل إمكانيات مساعد ذكاء اصطناعي موثوق به. يمكنه كتابة المسودة الأولى لأي شيء: رسائل البريد الإلكتروني ، والتقارير ، والمقالات ، وحتى عهود الزفاف. سيتعين عليك إعطائها معلومات أساسية وتحرير ناتجها ، بالطبع ، لكن هذه المسودة ستكتب بواسطة نموذج مدرب على معتقداتك الشخصية ومعرفتك وأسلوبك. يمكن أن يكون بمثابة مدرسك ، حيث يجيب على الأسئلة بشكل تفاعلي حول الموضوعات التي تريد التعرف عليها – بالطريقة التي تناسبك بشكل أفضل مع مراعاة ما تعرفه بالفعل. يمكن أن يساعدك في التخطيط والتنظيم والتواصل: مرة أخرى ، بناءً على تفضيلاتك الشخصية. يمكن أن يدافع عنك مع أطراف ثالثة: إما بشر أو روبوتات أخرى. ويمكنه الإشراف على المحادثات على وسائل التواصل الاجتماعي من أجلك ، والإبلاغ عن المعلومات الخاطئة ، وإزالة الكراهية أو التصيد ، والترجمة للمتحدثين بلغات مختلفة ، والحفاظ على المناقشات حول الموضوع ؛ أو حتى التوسط في المحادثات في المساحات المادية ، والتفاعل من خلال قدرات التعرف على الكلام والتوليف.

إن أنظمة الذكاء الاصطناعي الحالية ليست جاهزة لهذه المهمة. لا تكمن المشكلة في التكنولوجيا – فهي تتقدم بشكل أسرع حتى من خمن الخبراء– من يملكها. يتم إنشاء أنظمة الذكاء الاصطناعي الحالية وإدارتها بشكل أساسي من قبل شركات التكنولوجيا الكبيرة ، من أجل مصلحتها وربحها. في بعض الأحيان يُسمح لنا بالتفاعل مع روبوتات المحادثة ، لكنها ليست ملكًا لنا حقًا. هذا تضارب في المصالح ، وتضارب يقضي على الثقة.

إن الانتقال من الاستخدام الرهيب والشغوف إلى الشك إلى خيبة الأمل هو أمر مستهتر في قطاع التكنولوجيا. منذ عشرين عامًا ، كان محرك بحث Google بسرعة صعدت إلى الهيمنة الاحتكارية بسبب قدرتها على استرجاع المعلومات التحويلية. بمرور الوقت ، أدى اعتماد الشركة على الإيرادات من الإعلانات على شبكة البحث إلى ذلك تحط من قدر تلك القدرة. اليوم ، العديد من المراقبين أتطلّع لذلك حتى موت نموذج البحث تمامًا. سار أمازون على نفس الدرب ، من سوق نزيهة إلى سوق مليئة بالحيوية المنتجات الرديئة البائعين الذين لديهم مدفوع لجعل الشركة تظهر لك. يمكننا أن نفعل أفضل من هذا. إذا كان كل واحد منا سيحصل على مساعد ذكاء اصطناعي يساعدنا في الأنشطة الأساسية يوميًا وحتى الدعوة نيابة عنا ، فكل منا بحاجة إلى معرفة أن لديه اهتماماتنا في الاعتبار. سيتطلب بناء ذكاء اصطناعي جدير بالثقة تغييرًا منهجيًا.

أولاً ، يجب أن يتحكم المستخدم في نظام الذكاء الاصطناعي الجدير بالثقة. هذا يعني أن النموذج يجب أن يكون قادرًا على العمل على الأجهزة الإلكترونية المملوكة للمستخدم (ربما بتنسيق مبسط شكل) أو داخل خدمة سحابية يتحكمون فيها. يجب أن يُظهر للمستخدم كيفية استجابته لهم ، مثل عندما يقدم استعلامات للبحث في الويب أو الخدمات الخارجية ، أو عندما يوجه برنامجًا آخر للقيام بأشياء مثل إرسال بريد إلكتروني نيابة عن المستخدم ، أو تعديل بيانات المستخدم. اِسْتَدْعَىللتعبير بشكل أفضل عما تعتقد الشركة التي جعلتها أن المستخدم يريده. يجب أن تكون قادرة على شرح أسبابها للمستخدمين والاستشهاد بمصادرها. هذه المتطلبات كلها ضمن القدرات التقنية لأنظمة الذكاء الاصطناعي.

علاوة على ذلك ، يجب أن يتحكم المستخدمون في البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي وضبطه. عندما يتم بناء LLMs الحديثة ، يتم تدريبهم أولاً على هيئة عامة من البيانات النصية عادةً ما يتم الحصول عليها من عبر الإنترنت. تتقدم العديد من الأنظمة إلى أبعد من ذلك الكون المثالى على مجموعات بيانات أكثر تحديدًا تم تصميمها لتطبيق ضيق ، مثل التحدث بلغة ملف طبيب، أو تقليد طريقة وأسلوب المستخدم الفردي. في المستقبل القريب ، سيتم تغذية أنظمة الذكاء الاصطناعي الخاصة بالشركات بشكل روتيني ببياناتك ، ربما بدون وعيك أو موافقتك. يجب أن يسمح أي نظام ذكاء اصطناعي جدير بالثقة للمستخدمين بشفافية بالتحكم في البيانات التي يستخدمها.

يرحب الكثير منا بتطبيق الكتابة بمساعدة الذكاء الاصطناعي الذي تم ضبطه بدقة مع معرفة التعديلات التي قبلناها في الماضي والتي لم نقبلها. سنكون أكثر تشككًا في وجود روبوت محادثة على دراية بأي من نتائج البحث الخاصة به أدى إلى عمليات شراء وأيها لم يؤدي إلى ذلك.

يجب أيضًا أن تكون على علم بما يمكن أن يفعله نظام الذكاء الاصطناعي نيابة عنك. هل يمكنه الوصول إلى تطبيقات أخرى على هاتفك والبيانات المخزنة بها؟ هل يمكنه استرداد المعلومات من مصادر خارجية ، مع مزج مدخلاتك بتفاصيل من أماكن أخرى قد تثق بها أو لا تثق بها؟ هل يمكنه إرسال رسالة باسمك (نأمل أن تكون بناءً على إدخالك)؟ سيصبح وزن هذه الأنواع من المخاطر والفوائد جزءًا لا يتجزأ من حياتنا اليومية حيث يتم دمج الأدوات المساعدة للذكاء الاصطناعي مع كل ما نقوم به.

من الناحية الواقعية ، يجب أن نستعد جميعًا لعالم لا يكون فيه الذكاء الاصطناعي جديرًا بالثقة. نظرًا لأن أدوات الذكاء الاصطناعي يمكن أن تكون مفيدة للغاية ، فإنها ستنتشر بشكل متزايد في حياتنا ، سواء كنا نثق بها أم لا. سيتطلب كونك مواطنًا رقميًا في الربع القادم من القرن الحادي والعشرين تعلم خصوصيات وعموميات LLM الأساسية حتى تتمكن من تقييم مخاطرها وقيودها لحالة استخدام معينة. سيؤدي ذلك إلى إعدادك بشكل أفضل للاستفادة من أدوات الذكاء الاصطناعي ، بدلاً من الاستفادة منها.

في الأشهر القليلة الأولى من الاستخدام الواسع لنماذج مثل ChatGPT في العالم ، تعلمنا الكثير عن كيفية قيام الذكاء الاصطناعي بإحداث مخاطر للمستخدمين. لقد سمع الجميع الآن أن LLMs “هلوسة” ، مما يعني أنها تشكل “حقائق” في مخرجاتها ، لأن أنظمة توليد النص التنبئي الخاصة بهم ليست مقيدة بالتحقق من حقيقة انبعاثها. العديد من المستخدمين تعلمت في مارس ، قد لا يتم الاحتفاظ بسرية المعلومات التي يرسلونها كمطالبات لأنظمة مثل ChatGPT بعد أن كشف خطأ عن محادثات المستخدمين. يتم تخزين سجلات الدردشة الخاصة بك في أنظمة قد تكون غير آمنة.

وجد الباحثون عديد ماهر طرق لخداع روبوتات المحادثة من أجل خرق ضوابط السلامة الخاصة بهم ؛ هذه تعمل إلى حد كبير لأن العديد من “القواعد” المطبقة على هذه الأنظمة لينة ، مثل تعليمات تُمنح لشخص ، بدلاً من القيود الصارمة ، مثل القيود المشفرة على وظائف المنتج. يبدو الأمر كما لو أننا نحاول الحفاظ على أمان الذكاء الاصطناعي من خلال مطالبتهم بالقيادة بحذر ، وتعليمات مفعمة بالأمل ، بدلاً من سحب مفاتيحه ووضع قيود محددة على قدراته.

ستزداد هذه المخاطر مع قيام الشركات بمنح أنظمة chatbot المزيد من الإمكانات. يوفر OpenAI للمطورين على نطاق واسع وصول لإنشاء أدوات أعلى GPT: الأدوات التي تمنح أنظمة الذكاء الاصطناعي الخاصة بهم إمكانية الوصول إلى بريدك الإلكتروني ، وإلى معلومات حسابك الشخصي على مواقع الويب ، وإلى كود الكمبيوتر. أثناء تطبيق OpenAI بروتوكولات الأمان على عمليات الدمج هذه ، ليس من الصعب تخيل أولئك الذين يتم استرخائهم في محرك الأقراص لجعل الأدوات أكثر فائدة. يبدو أيضًا أنه من المحتم أن تأتي الشركات الأخرى مع استراتيجيات أقل خداعًا لتأمين حصتها في سوق الذكاء الاصطناعي.

تمامًا كما هو الحال مع أي إنسان ، سيكون بناء الثقة باستخدام الذكاء الاصطناعي أمرًا صعبًا من خلال التفاعل مع مرور الوقت. سنحتاج إلى اختبار هذه الأنظمة في سياقات مختلفة ، ومراقبة سلوكها ، وبناء نموذج عقلي لكيفية استجابتها لأفعالنا. لا يمكن بناء الثقة بهذه الطريقة إلا إذا كانت هذه الأنظمة شفافة بشأن قدراتها ، وما هي المدخلات التي تستخدمها ومتى تشاركها ، ومصالح من تتطور لتمثيلها.

هل تريد معرفة المزيد عن الذكاء الاصطناعي وروبوتات المحادثة ومستقبل التعلم الآلي؟ تحقق من تغطيتنا الكاملة لـ الذكاء الاصطناعي، أو تصفح أدلةنا إلى أفضل مولدات فنية مجانية لمنظمة العفو الدولية و كل ما نعرفه عن ChatGPT الخاص بـ OpenAI.

ناثان إي ساندرز عالم بيانات وعضو منتسب لمركز بيركمان كلاين بجامعة هارفارد.

بروس شناير هو تقني أمني ومحاضر في السياسة العامة في كلية هارفارد كينيدي.


اكتشاف المزيد من موقع شبرون

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *