سارة سيلفرمان مقابل الذكاء الاصطناعي: خط جديد في المعركة من أجل الحدود الرقمية الأخلاقية

سارة سيلفرمان مقابل الذكاء الاصطناعي: خط جديد في المعركة من أجل الحدود الرقمية الأخلاقية


توجه إلى مكتبتنا عند الطلب لعرض الجلسات من VB Transform 2023. سجل هنا


الذكاء الاصطناعي التوليدي ليس أمرًا يضحك ، كما أثبتت سارة سيلفرمان عندما رفعت دعوى ضد شركة OpenAI ، مبتكر ChatGPT ، و Meta بسبب انتهاك حقوق النشر. تزعم هي والروائيان كريستوفر غولدن وريتشارد كادري أن الشركات دربت نماذجها اللغوية الكبيرة (LLM) على أعمال المؤلفين المنشورة دون موافقة ، والخوض في منطقة قانونية جديدة.

قبل أسبوع واحد ، تم رفع دعوى جماعية ضد شركة OpenAI. تركز هذه القضية إلى حد كبير على فرضية أن نماذج الذكاء الاصطناعي التوليدية تستخدم معلومات الأشخاص المطمئنين بطريقة تنتهك حقهم المضمون في الخصوصية. تأتي هذه الإيداعات في الوقت الذي تشكك فيه الدول في جميع أنحاء العالم في مدى وصول الذكاء الاصطناعي ، وآثاره على المستهلكين ، وأنواع اللوائح – والعلاجات – اللازمة للحفاظ على قوتها تحت السيطرة.

بدون شك ، نحن في سباق مع الزمن لمنع الضرر في المستقبل ، ومع ذلك نحتاج أيضًا إلى معرفة كيفية معالجة حالتنا الحالية غير المستقرة دون تدمير النماذج الحالية أو استنفاد قيمتها. إذا كنا جادين في حماية حق المستهلكين في الخصوصية ، فيجب على الشركات أن تأخذ على عاتقها تطوير وتنفيذ سلالة جديدة من سياسات الاستخدام الأخلاقي الخاصة بالذكاء الاصطناعي العام.

ما هي المشكلة؟

تعد مسألة البيانات – من يمكنه الوصول إليها ، ولأي غرض ، وما إذا كانت الموافقة على استخدام بيانات الشخص لهذا الغرض – في صلب لغز الذكاء الاصطناعي العام. الكثير من البيانات هي بالفعل جزء من النماذج الحالية ، وتعلمهم بطرق لم تكن متصورة في السابق. وتتواصل إضافة جبال المعلومات كل يوم.

حدث

VB Transform 2023 حسب الطلب

هل فاتتك جلسة من VB Transform 2023؟ سجل للوصول إلى المكتبة عند الطلب لجميع جلساتنا المميزة.

سجل الان

هذا يمثل مشكلة لأن المستهلكين ، بطبيعتهم ، لم يدركوا أن معلوماتهم واستفساراتهم ، وملكيتهم الفكرية وإبداعاتهم الفنية ، يمكن تطبيقها لتغذية نماذج الذكاء الاصطناعي. يتم الآن كشط التفاعلات التي تبدو غير ضارة واستخدامها للتدريب. عندما تحلل النماذج هذه البيانات ، فإنها تفتح مستويات جديدة تمامًا من فهم أنماط السلوك والاهتمامات بناءً على البيانات التي لم يوافق المستهلكون مطلقًا على استخدامها لمثل هذه الأغراض.

باختصار ، هذا يعني أن روبوتات الدردشة مثل ChatGPT و Bard ، بالإضافة إلى نماذج الذكاء الاصطناعي التي تم إنشاؤها واستخدامها من قبل الشركات من جميع الأنواع ، تستفيد إلى أجل غير مسمى من المعلومات التي ليس لها حقًا في ذلك من الناحية الفنية.

وعلى الرغم من حماية المستهلك مثل الحق في النسيان وفقًا للقانون العام لحماية البيانات (GDPR) أو الحق في حذف المعلومات الشخصية وفقًا لقانون كاليفورنيا لحماية خصوصية المستهلك في كاليفورنيا ، لا تمتلك الشركات آلية بسيطة لإزالة معلومات الفرد عند الطلب. من الصعب للغاية استخراج تلك البيانات من نموذج أو خوارزمية بمجرد نشر نموذج الذكاء الاصطناعي العام ؛ تداعيات القيام بذلك يتردد صداها من خلال النموذج. ومع ذلك ، تهدف كيانات مثل FTC إلى إجبار الشركات على القيام بذلك.

تحذير شديد اللهجة لشركات الذكاء الاصطناعي

في العام الماضي ، أمرت لجنة التجارة الفيدرالية WW International (المعروفة سابقًا باسم Weight Watchers) بتدمير خوارزمياتها أو نماذج الذكاء الاصطناعي التي تستخدم بيانات الأطفال دون إذن الوالدين بموجب قانون حماية خصوصية الأطفال على الإنترنت (COPPA). في الآونة الأخيرة ، تم تغريم Amazon Alexa لانتهاك مماثل ، بـ المفوض الفارو بيدويا الكتابة أن التسوية يجب أن تكون بمثابة “تحذير لكل شركة ذكاء اصطناعي تتسابق للحصول على المزيد والمزيد من البيانات.” المنظمات في حالة إشعار: لجنة التجارة الفيدرالية (FTC) وغيرها قادمون ، والعقوبات المرتبطة بحذف البيانات أسوأ بكثير من أي غرامة.

وذلك لأن الملكية الفكرية والتنفيذية القيمة حقًا في العالم الحالي الذي يحركه الذكاء الاصطناعي تأتي من النماذج نفسها. هم مخزن القيمة. إذا لم تتعامل المؤسسات مع البيانات بالطريقة الصحيحة ، مما يؤدي إلى عدم الرضا عن الخوارزميات (والذي يمكن أن يمتد إلى حالات تتجاوز قانون حماية خصوصية الأطفال على الإنترنت) ، فإن النماذج تصبح عديمة القيمة أساسًا (أو تخلق قيمة فقط في السوق السوداء). وستضيع الرؤى التي لا تقدر بثمن – في بعض الأحيان سنوات في طور التكوين.

حماية المستقبل

بالإضافة إلى طرح أسئلة حول أسباب جمعها وحفظ نقاط بيانات محددة ، يجب على الشركات اتخاذ موقف أخلاقي ومسؤول على مستوى الشركة بشأن استخدام الذكاء الاصطناعي العام في أعمالها. القيام بذلك يحميهم ويحمي العملاء الذين يخدمونهم.

خذ Adobe ، على سبيل المثال. وسط سجل مشكوك فيه لاستخدام الذكاء الاصطناعي ، كانت من بين أول من أضفى الطابع الرسمي على سياسة الاستخدام الأخلاقي للذكاء الاصطناعي العام. مع استكمال مجلس مراجعة الأخلاقيات ، يسهل العثور على نهج Adobe وإرشاداته ومُثُله المتعلقة بالذكاء الاصطناعي ، بنقرة واحدة بعيدًا عن الصفحة الرئيسية بعلامة تبويب (“AI at Adobe”) خارج شريط التنقل الرئيسي. لقد وضعت الشركة أخلاقيات الذكاء الاصطناعي في الصدارة ، وأصبحت مدافعة عن الذكاء الاصطناعي العام الذي يحترم المساهمات البشرية. في ظاهرها ، هو الموقف الذي يثير الثقة.

قارن هذا النهج مع شركات مثل Microsoft و Twitter و Meta التي قللت من حجم فرق الذكاء الاصطناعي المسؤولة لديها. قد تجعل مثل هذه التحركات المستهلكين حذرين من أن الشركات التي تمتلك أكبر قدر من البيانات تضع الأرباح قبل الحماية.

لاكتساب ثقة المستهلك واحترامه ، وكسب المستخدمين والاحتفاظ بهم وإبطاء الضرر المحتمل الذي يمكن أن يطلقه الذكاء الاصطناعي العام ، تحتاج كل شركة تلامس بيانات المستهلك إلى تطوير – وإنفاذ – سياسة استخدام أخلاقية للذكاء الاصطناعي العام. من الضروري حماية معلومات العملاء وحماية قيمة وسلامة النماذج الآن وفي المستقبل.

هذه هي القضية الحاسمة في عصرنا. إنها أكبر من الدعاوى القضائية والتفويضات الحكومية. إنها مسألة ذات أهمية مجتمعية كبيرة وتتعلق بحماية حقوق الإنسان التأسيسية.

دانيال باربر هو الشريك المؤسس والرئيس التنفيذي لشركة DataGrail.

صانعي القرار

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.

يمكنك حتى التفكير في المساهمة بمقال خاص بك!

قراءة المزيد من DataDecisionMakers




اكتشاف المزيد من موقع شبرون

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *