موقع شبرون للتقنية والأخبار- متابعات تقنية:
إنتاج محكم ، الحقائق الدقيقة ليست من سمات ChatGPT القوية. نموذج اللغة الكبيرة الذي أنشأته OpenAI هو المعروف باختلاق المعلومات لغاياتها الخاصة – الكذب التام في خدمة إنشاء نص سلس ، بسرعة أو إكمال المهام. ولكن هل ChatGPT مسؤول قانونيًا عن أكاذيبه؟ هل يمكن أن تكون اختراعات الذكاء الاصطناعي ضارة وتشهيرية وهل تتحمل الشركة التي تقف وراءها المسؤولية؟
يسعى سياسي أسترالي إلى معرفة ذلك ، فيما يمكن أن يصبح أول دعوى تشهير على الإطلاق ضد الذكاء الاصطناعي. براين هود ، العمدة الإقليمي لهيبورن شاير ، على استعداد لمقاضاة شركة OpenAI إذا لم تعالج الشركة المعلومات الخاطئة عنه بشكل مناسب والتي تظهر في ChatGPT ، وتصححها. تقرير من رويترز.
وبحسب ما ورد ذكرت منظمة العفو الدولية أن هود هو مجرم مُدان ، متورط في فضيحة رشوة سابقة وحقيقية للغاية في بنك الاحتياطي الأسترالي (RBA). في عام 2011 ، قام مسؤولون من فرع RBA ، Note Printing Australia ، أدين بشأن التآمر لرشوة مسؤولين حكوميين أجانب. وقعت الأعمال المخالفة بين عامي 1999 و 2004. العديد من المسؤولين حكم عليهم لتورطهم في الجرائم.
ولفترة من الوقت على الأقل ، إذا استمعت إلى ChatGPT ، كان هود من بين أولئك الذين شاركوا في المخطط الشائن ، وفقًا لمحامي السياسي. ومع ذلك ، لم يتم العثور على هود مطلقًا بأي جريمة في فضيحة بنك الاحتياطي الأسترالي. لم يتم اتهامه قط. في الواقع ، كان هود الشخص الذي يصفر الذي سلط الضوء على الآثام – بطل القصة الذي يضرب به المثل وليس الشرير.
قد تحصل G / O Media على عمولة
وبحسب ما ورد ، أصبح السياسي المحلي قلقًا بشأن سمعته بعد أن ذكره العديد من الجمهور أن ChatGPT كان يدرجه كمجرم ، وفقًا لرويترز. لذلك ، اتصل بمحاميه.
أرسل فريق هود القانوني خطاب قلق إلى شركة OpenAI في 21 مارس ، يمنح الشركة 28 يومًا لإصلاح عدم الدقة ، حسب المنفذ. ومع ذلك ، قادت الشركة التي يوجد مقرها في سان فرانسيسكو وقال المحامون لرويترز إن سام التمان لم يرد بعد.
إذا تقدم خطاب القلق iبالنسبة لدعوى قضائية ، “من المحتمل أن تكون لحظة تاريخية ،” جيمس نوتون ، أحد المحامين في ممثل مكتب المحاماةنتينج هود ، قال جوردون ليغال لرويترز. “إنها تطبق قانون التشهير هذا على منطقة جديدة من الذكاء الاصطناعي.”
تواصلت Gizmodo مع كل من Gordon Legal و OpenAI مع أسئلة خارج ساعات العمل ، ولكن لم ترد الشركة ولا شركة المحاماة حتى وقت النشر.
يتضمن OpenAI إخلاء مسؤولية حول دقة ChatGPT (أو عدمه) في ملف شروط الاستخدام. “قد تؤدي خدماتنا في بعض المواقف إلى إخراج غير صحيح لا يعكس بدقة الأشخاص الحقيقيين أو الأماكن أو الحقائق” ، تلاحظ الشركة. ومع ذلك ، هذا لا يعني بالضرورة أنه لا يمكن اعتبار الشركة مسؤولة عن تلك الأكاذيب. ويقول محامو هود إنه يجب أن يكون كذلك. وقال نوتون لرويترز إنه مسؤول منتخب وسمعته مركزية في دوره. “سيحدث فرقًا بالنسبة له إذا كان الناس في مجتمعه يصلون إلى هذه المواد.”
على وجه التحديد ، ستركز أي دعوى قضائية على افتقار ChatGPT إلى الحواشي السفلية ، مما يوفر إحساسًا خاطئًا لا يمكن التحقق منه بأن النص الذي قدمته وفيا للواقع ، كما قال نوتون. وأشار نوتن إلى أنه “من الصعب جدًا على شخص ما أن ينظر وراء ذلك ليقول” كيف تتوصل الخوارزمية إلى هذه الإجابة؟ ” “إنه مبهم للغاية.”
من المحتمل ألا تكون العواقب المالية لدعوى تشهير لشركة OpenAI كبيرة جدًا. تم تحديد الأضرار في أستراليا بأقل من 300000 دولار ، وفقًا لرويترز. ومع ذلك ، إذا كانت القضية ستمضي قدمًا وتذهب في نهاية المطاف لصالح رئيس البلدية ، فيمكن أن تشكل سابقة قانونية عالمية كبيرة لمقدار المسؤولية التي تتحملها شركات التكنولوجيا عندما يتعلق الأمر بالأخطاء والمعلومات المضللة الناتجة عن الذكاء الاصطناعي.
لقد عملت شركات التكنولوجيا الرئيسية الضخمة مثل Microsoft و Google بالفعل على دمج الذكاء الاصطناعي التوليدي في العديد من منتجاتها. وحتى في أحداث الإطلاق العامة الأولى ، تكمن المشكلة الواضحة للذكاء الاصطناعي في الظهور لكليهما جوجل بارد و مايكروسوفت بنج. ولكن حتى الآن ، لم يضطر عمالقة التكنولوجيا هؤلاء إلى الرد قانونيًا على المعلومات السيئة التي يقدمونها للمستخدمين.
يمكن أن يكون لأي دعوى قضائية آثار كبيرة على Microsoft ، على وجه التحديد ، التي تستخدم تقنية OpenAI في عمليات البحث والدردشة الخاصة بها المدعومة بالذكاء الاصطناعي. صفقة شراكة بمليارات الدولارات. ملاحظة: يتضمن إصدار Microsoft للتقنية حواشي سفلية ، لكنها كذلك ليس دائمًا أوضحها وأكثرها موثوقية. تواصلت Gizmodo مع الشركة للتعليق ، لكنها لم تتلق ردًا على الفور.
على الرغم من محامي هود أخبر رويترز أن أوبن إيه آي لم تستجب لخطابهم ، اختبرت Gizmodo لفترة وجيزة ما إذا كانت ChatGPT لا تزال تنتج أكاذيب حول رئيس البلدية. في جولات متعددة ذهابًا وإيابًا حيث طرحت أسئلة حول هود وإدانات الرشوة لعام 2011 ، لم أستطع جعل الروبوت يخبرني أنه مجرم ، أو أنه متهم بأي جريمة. بدلاً من ذلك ، يبدو أن الذكاء الاصطناعي يفهم الآن أن هود كان الرجل الطيب في الفضيحة. ومع ذلك ، لا يزال ChatGPT يخطئ في وصف بعض التفاصيل في حسابه عن تاريخ الحكومة الأسترالية القريب.
وكتبت: “المبلغ عن المخالفات في فضيحة الرشوة في 2011 في بنك الاحتياطي الأسترالي (RBA) كان براين هود ، الذي كان وكيلًا سابقًا لشركة Securency International ، وهي مشروع مشترك بين شركة Note Printing Australia المملوكة لبنك الاحتياطي الأسترالي وشركة بريطانية”. ومع ذلك ، لم يكن هود وكيلًا سابقًا في Securency International. كان سكرتيرًا في Note Printing Australia ، لكل تقرير سيدني مورنينغ هيرالد لعام 2013. زعم الروبوت أيضًا أن اثنين من المسؤولين فقط أدينوا بتهمهم ، لكن العدد الفعلي أعلى. هذه الأخطاء قد لا تكون تشهيرية ، لكنها لا تزال غير صحيحة.
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.