أخلاقيات الذكاء الاصطناعي لمحترفي الإعلانات: 10 قواعد للمشاركة

أخلاقيات الذكاء الاصطناعي لمحترفي الإعلانات: 10 قواعد للمشاركة

[ad_1]

انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


الذكاء الاصطناعي لا يأتي إلى مكان العمل. إنه هنا بالفعل. يستخدم الكثير منا بالفعل أدوات بها ذكاء اصطناعي تحت الغطاء ، وقد أعلنت كل من Google و Microsoft مؤخرًا عن إصدارات AI لمحركات البحث الخاصة بهما. إنها قوة الذكاء الاصطناعي للناس – لا حاجة إلى تدريب متخصص.

يوفر الذكاء الاصطناعي إمكانات هائلة للإعلان ، لا سيما لكتابة البريد الإلكتروني والبحث وإنشاء شركات وكتابة نسخ اجتماعية ، بالإضافة إلى وظائف الموارد البشرية مثل التوظيف والمراجعات والمزيد.

سيخبرك المؤيدون أن الذكاء الاصطناعي في مكان العمل سيهتم بالمهام الروتينية ، مما يتيح لنا التواصل مع البشر الآخرين ، والإبداع والاسترخاء. سيذكرك المنتقدون أن الذكاء الاصطناعي يمكن أن يضخم التحيز ويوسع المراقبة ويهدد الوظائف ويسبب مجموعة كاملة من القضايا الأخرى.

كلا المجموعتين على حق. الذكاء الاصطناعي هو أداة ، وما يحدث بعد ذلك يعتمد على كيفية استخدامها. لسوء الحظ ، لم يتسارع المشهد التنظيمي بوتيرة التكنولوجيا. هذا في الغالب يترك الأمر متروكًا لـ نحن لاتخاذ قرارات حول كيفية استخدام الذكاء الاصطناعي. في دوري في إستراتيجية العلامة التجارية في وكالة إبداعية ، رأيت بالفعل أشخاصًا يناقشون هذه الخيارات: هل من المقبول استخدام ChatGPT لكتابة مراجعة الزملاء؟ ماذا عن إنشاء نماذج بالأحجام الطبيعية للذكاء الاصطناعي لعرض تقديمي؟

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

نحن بحاجة ماسة إلى تحديد آداب التعامل مع الذكاء الاصطناعي في مكان العمل. هناك أجزاء كثيفة من قوانين الذكاء الاصطناعي والقواعد الأخلاقية للمهندسين ، لكننا نفتقر إلى إرشادات سهلة يسهل الوصول إليها للمهنيين ذوي الياقات البيضاء الذين يتبنون هذه الأدوات بسرعة. أريد أن أقترح الإرشادات التالية لاستخدام الذكاء الاصطناعي في مكان العمل.

10 قواعد لمحترفي الإعلانات الذين يستخدمون الذكاء الاصطناعي في العمل

1. الكشف عن استخدام الذكاء الاصطناعي

اختبار عبث لما إذا كنت يجب استخدام الذكاء الاصطناعي لشيء ما هو ما إذا كنت ستشعر بالراحة عند الاعتراف بذلك. إذا لم تكن لديك أي مخاوف (“لقد أنشأت إحصاءات لتقريرنا”) ، فهذه حالة استخدام أفضل. إذا شعرت بالحرج (“مرحبًا أيها المتدرب ، تمت كتابة تقييم أدائك بواسطة ChatGPT”) ، فهذا مؤشر جيد لا يجب عليك القيام به. سيكون للناس تفاوتات مختلفة ، لكن الشفافية ستساعدنا في مناقشة ما هو مقبول بصراحة.

2. كن مسؤولاً

يتمتع الذكاء الاصطناعي بسمعة طيبة في “الهلوسة” ، أي الملء التلقائي للمعلومات الخاطئة بشكل أساسي. قدم Google Bard مؤخرًا ردًا غير دقيق في عرضه التوضيحي العام ، وتعرض Microsoft Bing لانتقادات بسبب مستخدمي “الغاز”. سواء كانت أخطاء واقعية أو رسائل بريد إلكتروني مكتوبة بشكل سيئ ، لا يمكننا تحويل أخطاء الذكاء الاصطناعي إلى مشكلة شخص آخر. حتى لو كان ذلك من عمل الذكاء الاصطناعي ، فهذه مسؤوليتنا.

3. مشاركة مدخلات منظمة العفو الدولية

باستخدام الذكاء الاصطناعي ، يمكنك الحصول على ما تقدمه. وسيساعدنا التحلي بالشفافية بشأن المدخلات جميعًا على تعلم أفضل طريقة لاستخدام هذه الأدوات. سيساعدنا ذلك أيضًا على مقاومة إغراء طلب مخرجات منحازة بشكل صارخ (“أخبرني لماذا جيل الألفية أناني”) أو استخدام الذكاء الاصطناعي للانتحال (“أعطني صورة بأسلوب Kehinde Wiley”). تشجعنا الشفافية على هندسة المطالبات فقط التي نفتخر بالتباهي بها.

4. ابحث عن السياق

الذكاء الاصطناعي جيد جدًا في استرداد المعلومات وتبسيطها. بالنسبة لأولئك منا الذين تتضمن وظائفهم البحث ، يمكن أن يؤدي ذلك إلى القضاء على عملية غربلة عشرات المواقع للحصول على إجابة بسيطة. لكن يمكنها أيضًا القضاء على التعقيد. نحن نخاطر بالتنازل عن السلطة لسلطة غير مرئية والحصول على ملخصات بدلاً من وجهات النظر الدقيقة. يجب أن نكمل المخرجات البسيطة التي يولدها الذكاء الاصطناعي بأبحاثنا الخاصة وفكرنا النقدي.

5. توفير شفافية النظام

نظرًا لأن الشركات تستخدم الذكاء الاصطناعي لاتخاذ المزيد من القرارات ، فمن حق الأفراد معرفة كيف تولد الأنظمة نتائجها. تتطلب اللائحة العامة لحماية البيانات من الشركات الإفصاح عن “معلومات مفيدة حول المنطق المتضمن” في القرارات الآلية ، لكن الولايات المتحدة تفتقر إلى مثل هذه الحماية. إذا كانت الشركة تستخدم برنامجًا للذكاء الاصطناعي للتوصية بالزيادات والمكافآت ، فيجب أن يعرف الموظفون العوامل التي تراها وكيف تزنهم.

6. توفير حق الرجوع

خضعت إحدى الشركات للتدقيق بعد السماح لأداة إنتاجية قائمة على الذكاء الاصطناعي بطرد 150 موظفًا عن طريق البريد الإلكتروني دون تدخل بشري. وقالت الشركة في وقت لاحق إنها ستراجع حالة كل موظف يدويًا. نحتاج إلى أن نكون قادرين على تحدي نتائج الذكاء الاصطناعي ، لا أن نفترض أنه “يعرف كل شيء” ، وأن نتمكن من الوصول إلى نظام انتصاف بقيادة الإنسان.

7. تدقيق الذكاء الاصطناعي للتحيز

أحد الانتقادات الرئيسية للذكاء الاصطناعي هو أنه يمكن أن يضخم التحيز. من المعروف أن ChatGPT يكتب مراجعات أداء “متحيزة جنسياً (وعنصرية)” ، حتى عند إعطاء مدخلات عامة. هناك سجل للتحيز العنصري والجنساني في أدوات التوظيف التي تعمل بالذكاء الاصطناعي ، والتي غالبًا ما يتم تدريبها على مجموعات البيانات المليئة بالتحيز البشري. يجب على الشركات تدقيق أدواتها بانتظام ، ويحتاج المستخدمون الأفراد إلى توخي الحرص بشأن التحيز في المخرجات.

8. إعادة تقييم الوقت

خطر آخر للذكاء الاصطناعي: نقضي وقتًا أقل مع البشر ونقضي وقتًا أطول مع الآلات. إذا كان الذكاء الاصطناعي يخلق الكفاءة ، فما الذي نملأ به وقتنا الجديد؟ بدلاً من التخلف عن العمل في مزيد من العمل ، نحتاج إلى إعادة التفكير بشكل أساسي في هذا النطاق الترددي الجديد. قد يكون الاستخدام الأكثر جدوى لذلك الوقت هو التواصل مع الزملاء ، أو مطاردة فكرة إبداعية ، أو مجرد الراحة.

9. إعطاء الأولوية للإنسانية

ستكون هناك أوقات يقدم فيها الذكاء الاصطناعي مكاسب في الكفاءة على حساب كرامة الإنسان. هناك شركات نفذت مراقبة مدعومة بالذكاء الاصطناعي حيث لا يُسمح للعمال بالابتعاد عن الشاشة. تستخدم بعض الوكالات الإعلانية بالفعل الذكاء الاصطناعي لتحل محل الفنانين المرئيين. أود أن أناشد القادة إعطاء الأولوية لرفاهية الإنسان لأسباب أخلاقية بحتة ، ولكن قد تجد الشركات أيضًا فوائد ملموسة لاتخاذ الطريق السريع ، تمامًا كما تستفيد الشركات التي تدفع أجورًا أعلى من القوى العاملة الأكثر استقرارًا وذات الخبرة.

10. مناصرة الحماية

تخطط الغالبية العظمى من القادة بالفعل لاستخدام الذكاء الاصطناعي لتقليل احتياجات التوظيف. تستمر نماذج الذكاء الاصطناعي في التعلم من أعمال المبدعين غير المأجورين. ومعظمنا لا يملك القوة لمحاربة التحيز في هذه الأدوات. هناك العديد من الأشياء الصغيرة التي يمكننا القيام بها لاستخدام الذكاء الاصطناعي بشكل أكثر أخلاقية في مكان العمل ، ولكن في النهاية نحتاج إلى تغيير هيكلي مقنن وقادة منتخبون يعدون ببناء مشهد تنظيمي أقوى.

الطريق إلى الأمام للذكاء الاصطناعي في مجال الإعلان

تمامًا كما غيّر الإنترنت ما يعنيه العمل في مجال الإعلان ، فإن الذكاء الاصطناعي على وشك تغيير العديد من وظائف وظائفنا بشكل جذري. ستكون هناك فوائد. ستكون هناك عيوب. ستكون هناك تغييرات لا يمكننا حتى تخيلها حتى الآن. مع تقدم الذكاء الاصطناعي بشكل كبير ، نحتاج إلى أن نكون مستعدين لذلك.

الأخلاق موضوع شخصي ، وأنا لا أقترح هذه القائمة كمجموعة من الوصايا المحفورة في الحجر. هدفي هو فتح حوار حول كيفية قيام صناعة الإعلانات بتسخير القوة المذهلة للذكاء الاصطناعي مع التخفيف من مخاطرها. آمل أن تتولى الوكالات والأفراد المسؤولية ويبدأوا في اكتشاف ما نريد أن يبدو عليه تبني الذكاء الاصطناعي المسؤول في صناعتنا.

هانا ليمان هي مديرة استراتيجية مساعدة في Mekanism.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers

[ad_2]

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *