Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
مقالات التقنية

تصاعد المخاوف بشأن الذكاء الاصطناعي في عام 2023 وما يمكن فعله


تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.


عندما يفكر الناس في الذكاء الاصطناعي (AI) ، فإن ما يتبادر إلى الذهن هو كادر من الروبوتات يتحدون ككائنات واعية للإطاحة بأسيادهم.

بالطبع ، في حين أن هذا لا يزال بعيدًا عن نطاق الاحتمال ، إلا أنه طوال عام 2022 ، لا يزال الذكاء الاصطناعي يشق طريقه في الحياة اليومية للمستهلكين. تصل إلى شكل محركات توصية جيدة عند التسوق عبر الإنترنت ، وتوصي تلقائيًا بالحلول لأسئلة خدمة العملاء من قاعدة المعرفة ، واقتراحات حول كيفية إصلاح القواعد عند كتابة بريد إلكتروني.

هذا الاتجاه يتبع ما تم تأسيسه العام الماضي. وفقًا لتقرير McKinsey “حالة الذكاء الاصطناعي في عام 2021” ، فإن 57٪ من الشركات في الاقتصادات الناشئة قد تبنت شكلاً من أشكال الذكاء الاصطناعي ، ارتفاعًا من 45٪ في عام 2020. وفي عام 2022 ، وجد استطلاع أجرته شركة IBM أنه على الرغم من اعتماد الذكاء الاصطناعي بشكل تدريجي ، فإن أربعة من أصل خمس شركات تخطط للاستفادة من التكنولوجيا في وقت ما قريبًا.

في عام 2023 ، أتوقع أن تتبنى الصناعة الذكاء الاصطناعي بشكل أكبر كوسيلة لمواصلة تطور البرمجيات. سيشهد المستخدمون أن التكنولوجيا توفر فهمًا سياقيًا للغة المكتوبة والمنطوقة ، مما يساعد على الوصول إلى القرارات بشكل أسرع وبدقة أفضل ، وإخبار قصة الصورة الأكبر وراء نقاط البيانات المتباينة بطرق أكثر فائدة وقابلة للتطبيق.

حدث

قمة الأمن الذكي عند الطلب

تعرف على الدور الحاسم للذكاء الاصطناعي وتعلم الآلة في الأمن السيبراني ودراسات الحالة الخاصة بالصناعة. شاهد الجلسات عند الطلب اليوم.

مشاهدة هنا

الخصوصية موضوع مركزي

هذه التطورات المثيرة لا تخلو من مخاوف متزايدة. أتوقع أن تظل الخصوصية ، أو عدم وجودها ، موضوعًا مركزيًا للنقاش والخوف بين المستهلكين (في الواقع ، أعتقد أنه إذا لم تنجح metaverse ، فسيكون ذلك بسبب مخاوف الخصوصية).

تحتاج أيضًا أجزاء من الذكاء الاصطناعي إلى التدريب ، والعمليات الحالية للقيام بذلك تنطوي على احتمالية كبيرة لإحداث تحيزات ، مثل سوء فهم اللغة المنطوقة أو تحريف نقاط البيانات. في الوقت نفسه ، لم تلتحق وسائل الإعلام والحوكمة الدولية بما يتواجد فيه الذكاء الاصطناعي حاليًا ويتجه في عام 2023.

على الرغم من كل هذه المشاكل ، فإن الذكاء الاصطناعي سيحرك المجال للمؤسسات في عام 2023 ، وفي المقابل ، سيستفيدون من خلال تحسين الخبرات أو العمليات ، والاستمرار في ما كنت أرى أن الذكاء الاصطناعي يفعله خلال السنوات القليلة الماضية. سيتطلب القيام بذلك تركيزًا شديدًا على ما قد يحدث بشكل خاطئ ، وما هو صواب حاليًا ، وكيفية تطبيق حلول التفكير المستقبلي بسرعة. إليك المزيد من المعلومات حول الثلاثة وكيف يمكن للشركات بدء العملية.

يدخل الذكاء الاصطناعي بشكل كامل في الاتجاه السائد

كما ذكرنا سابقًا ، فإن اعتماد الذكاء الاصطناعي السائد في الطريق. من المحتمل أن تكون الأجهزة والتطبيقات ومنصات الخبرة مزودة بتقنية الذكاء الاصطناعي منذ البداية. لن يتمكن المستهلكون بعد الآن من الاشتراك ، مما سيسرع ويزيد من المخاوف بشأن الذكاء الاصطناعي الموجودة بالفعل في التيار الرئيسي.

تسود الخصوصية في هذا الصدد. نظرًا لعدد خروقات البيانات العامة التي حدثت على مدار السنوات القليلة الماضية – بما في ذلك تلك الموجودة في LinkedIn و MailChimp و Twitch – فإن المستهلكين حذرين بشكل مفهوم من إعطاء المعلومات الشخصية لشركات التكنولوجيا. إنه أمر مؤسف لأن المستهلكين أثبتوا استعدادهم لمشاركة بعض المعلومات الشخصية إذا أدى ذلك إلى تجربة أفضل. في الواقع ، وفقًا لتقرير خصوصية البيانات العالمية لعام 2022 الصادر عن Global Data and Marketing Alliance ، يشعر 49٪ من المستهلكين بالراحة عند تقديم البيانات الشخصية ، ويعتقد 53٪ أن القيام بذلك أمر بالغ الأهمية للحفاظ على المشهد التكنولوجي الحديث.

تتمثل إحدى القضايا المركزية في عدم وجود أي إجماع حول الشكل الذي تبدو عليه أفضل الممارسات عبر الصناعة ؛ من الصعب جمع البيانات إذا كان مفهوم الجمع الأخلاقي مائعًا. الذكاء الاصطناعي ليس بالضرورة جديدًا ، لكن التكنولوجيا لا تزال في مراحلها الأولى ، ولم تنضج الحوكمة بعد إلى النقطة التي يوجد فيها أي اتساق عبر الشركات. على سبيل المثال ، سنت كاليفورنيا قوانين خصوصية قوية تحمي المستهلكين – قانون خصوصية المستهلك في كاليفورنيا (CCPA) – ومع ذلك ، في هذه اللحظة ، لا يزالون من الولايات الوحيدة التي اتخذت إجراءات مباشرة. (بعض الولايات ، مثل يوتا وكولورادو ، لديها تشريعات في طور الإعداد).

الشفافية الكاملة أمر لا بد منه

للتحضير لحتمية وجود تقنية AI-first ، يمكن للشركات إظهار الشفافية الكاملة من خلال توفير وصول سهل إلى سياسات الخصوصية الخاصة بها – أو في حالة عدم وجودها ، قم بتكوينها في أقرب وقت ممكن وجعلها متاحة بسهولة للعرض على موقع الشركة على الويب.

لا يزال تكوين سياسة الخصوصية مدفوعًا بإرشادات عام 1998 الصادرة عن لجنة التجارة الفيدرالية (FTC) ، والتي تنص على أن السياسات تحتوي على هذه العناصر الخمسة:

  • إشعار / وعي: يجب توعية المستهلكين بأنه سيتم جمع معلوماتهم ، وكيف سيتم استخدام هذه المعلومات ، ومن سيتلقىها ؛
  • الاختيار / الموافقة: يتمتع المستهلكون بفرصة الاشتراك أو الانسحاب من جمع البيانات ، وإلى أي درجة ؛
  • الوصول / المشاركة: يمكن للمستهلكين عرض بياناتهم في أي وقت وتنفيذ التعديلات حسب الحاجة ؛
  • النزاهة / الأمن: يتم تزويد المستهلكين بالخطوات التي تتخذها الشركة لضمان بقاء بياناتهم آمنة ودقيقة مع إخفاء التفاصيل الشخصية غير ذات الصلة ؛
  • الإنفاذ / الإنصاف: أخيرًا ، يجب أن يفهم المستهلكون كيف سيحدث استكشاف الأخطاء وإصلاحها وما هي النتائج المترتبة على سوء معالجة البيانات.

اللغة الحبيبية ، على الرغم من استياءها عمومًا في التواصل مع جمهور غير متمرس في التكنولوجيا ، هي موضع ترحيب في هذه الحالة ، حيث من المرجح أن يشارك المستهلكون الذين لديهم فهم كامل لكيفية استخدام بياناتهم أجزاءً وأجزاء.

يجب القضاء على التحيزات في الذكاء الاصطناعي

غالبًا ما تكون التحيزات غير مرئية ، حتى لو كانت آثارها واضحة ، مما يعني أنه من الصعب ضمان القضاء عليها. وعلى الرغم من حالته المتقدمة ، يظل الذكاء الاصطناعي في عام 2023 عرضة للتحيزات مثل نظرائه من البشر. في بعض الأحيان ، تواجه هذه التقنية مشكلة في تحليل اللهجات ؛ ربما يفشل في تقديم مجموعة متوازنة من نقاط البيانات ؛ في بعض الأحيان ، يمكن أن يتجنب الوصول ويحرم مجموعة من المستخدمين.

عادة ما يتم إدخال التحيزات في وقت مبكر من العملية. يحتاج الذكاء الاصطناعي إلى التدريب ، وتختار العديد من الشركات إما شراء البيانات الاصطناعية من البائعين الخارجيين – المعرضين لتحيزات واضحة – أو جعلهم يمشطون الإنترنت العام بحثًا عن أدلة سياقية. ومع ذلك ، لا أحد ينظم أو يراقب شبكة الويب العالمية (إنها عالمية ، بعد كل شيء) للتحيز ، ومن المحتمل أن تتسلل إلى أساس منصة الذكاء الاصطناعي.

من غير المحتمل أن يتم التقليل من أهمية الاستثمارات المالية في الذكاء الاصطناعي في أي وقت قريب ، لذلك في عام 2023 ، من الأهمية بمكان إنشاء العمليات وأفضل الممارسات لإزالة أكبر عدد ممكن من التحيزات ، سواء كانت معروفة أو غير معروفة ، في أسرع وقت ممكن.

الضمانات البشرية

واحدة من أكثر الضمانات فعالية ضد التحيز هي إبقاء البشر بين مراحل جمع البيانات ومعالجتها في تدريب الذكاء الاصطناعي. على سبيل المثال ، هنا في Zoho ، ينضم بعض الموظفين إلى الذكاء الاصطناعي في التمشيط عبر البيانات المتاحة للجمهور لإزالة أي أثر لبيانات التعريف الشخصية أولاً – ليس فقط لحماية هؤلاء الأفراد ، ولكن لضمان وصول أجزاء مهمة فقط من المعلومات. بعد ذلك ، يتم تقطير البيانات بشكل أكبر لتشمل فقط ما هو ذي صلة.

على سبيل المثال ، لا يتطلب نظام الذكاء الاصطناعي الذي سيصل إلى النساء الحوامل بيانات سلوكية عن النساء غير الحوامل ، ومن غير المعقول توقع قيام الذكاء الاصطناعي بهذا التمييز على الفور.

من الأمور المهمة التي يجب تذكرها بشأن التحيز أنه يظل مفهومًا متطورًا وهدفًا متحركًا ، لا سيما مع تحسن الوصول إلى البيانات. لهذا السبب من الضروري للشركات التأكد من أنها تقوم بشكل روتيني بالمسح بحثًا عن معلومات جديدة وبالتالي تحديث معايير التحيز الخاصة بها. إذا كانت الشركة تتعامل مع بياناتها مثل الكود – مع العلامات المناسبة والتحكم في الإصدار والتحكم في الوصول وفروع البيانات المتماسكة – يمكن إكمال هذه العملية بسرعة وفعالية أكبر.

لا يزال السرد الإعلامي قاسيا

في قلب المسألتين السابقتين توجد وسائل الإعلام ، وهي عرضة للتكرار وإعادة التأكيد على روايتين متضاربتين. من ناحية أخرى ، تشير وسائل الإعلام إلى أن الذكاء الاصطناعي هو قطعة رائعة من التكنولوجيا ذات القدرة على إحداث ثورة في حياتنا اليومية بطرق واضحة وغير مرئية. من ناحية أخرى ، استمروا في التلميح إلى أن تقنية الذكاء الاصطناعي هي على بعد خطوة واحدة من أخذ وظائف الناس وإعلان نفسها أعلى سلطة على الأرض.

نظرًا لأن تقنية الذكاء الاصطناعي أصبحت أكثر انتشارًا في عام 2023 ، فتوقع أن يظل نهج وسائل الإعلام الحالية كما هو في الغالب. من المنطقي توقع زيادة طفيفة في القصص المتعلقة بانتهاكات البيانات ، على الرغم من أن زيادة الوصول إلى الذكاء الاصطناعي سيؤدي إلى احتمال أكبر أن يجد المستهلك نفسه متأثرًا.

يمكن أن يؤدي هذا الاتجاه إلى تفاقم مشكلة معينة: لا يمكن للذكاء الاصطناعي أن يتحسن حقًا دون زيادة التبني ، ومع ذلك من المرجح أن تتباطأ أرقام التبني بسبب التأخر في تحسين التكنولوجيا.

يمكن للشركات أن تمهد طريقها بعيدًا عن الترويج للخوف منخفض الدرجة لوسائل الإعلام من خلال تبني التسويق المباشر إلى المستهلك (D2C). أقوى طريقة لتخريب الروايات الإعلامية هي أن تبني الشركات واحدة خاصة بها من خلال تناقل الأخبار. بمجرد أن يضع المستهلكون أيديهم على التكنولوجيا نفسها ، يمكنهم فهم عاملها المبهر وإمكانية توفير قدر لا يحصى من الوقت لهم لإنجاز المهام الأساسية – أو المهام التي لم يفكروا فيها حتى يمكن أن يقوم بها الذكاء الاصطناعي. كما يتيح مسار التسويق هذا للشركات فرصة للتقدم في الأخبار من خلال إبراز سياسات الخصوصية والبروتوكولات الشاملة في حالة حدوث مشكلة.

العملاء يوجهون مستقبل الذكاء الاصطناعي

أفضل ما في الأمر هو أن قاعدة العملاء القوية في عام 2023 تفتح خطوط اتصال بين البائع والعميل. توفر الملاحظات المباشرة والمفصلة تحديثات شاملة وذات صلة بالذكاء الاصطناعي. معًا ، يمكن للشركات وعملائها صياغة مستقبل يحركه الذكاء الاصطناعي ويدفع مظروف التكنولوجيا بينما يظل مسؤولاً عن جمع البيانات بشكل آمن وآمن وغير متحيز.

فقط لا تخبر الروبوتات.

رامبراكاش رامامورثي هو رئيس المختبرات وأبحاث الذكاء الاصطناعي في زوهو.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى