وسائل الترفيهوسائل تكنولوجية

ورد أن ثلاثة من موظفي Samsung سربوا بيانات حساسة إلى ChatGPT

موقع شبرون للتقنية وأخبار العالم- متابعات تقنية:

على السطح ، قد يبدو وكأنه أداة يمكن أن تكون مفيدة لمجموعة من مهام العمل. ولكن قبل أن تطلب من chatbot تلخيص المذكرات المهمة أو التحقق من عملك بحثًا عن الأخطاء ، يجدر بنا أن نتذكر أن أي شيء تشاركه مع ChatGPT يمكن استخدامه لتدريب النظام وربما يظهر في ردوده على المستخدمين الآخرين. هذا شيء ربما كان يجب أن يكون العديد من الموظفين على دراية به قبل أن يُقال إنهم يشاركون المعلومات السرية مع برنامج الدردشة الآلي.

بعد فترة وجيزة من بدء قسم أشباه الموصلات في سامسونج السماح للمهندسين باستخدام ChatGPT ، سرب العمال معلومات سرية إليه في ثلاث مناسبات على الأقل ، وفقًا لـ (كما رصدتها ). وبحسب ما ورد طلب أحد الموظفين من chatbot التحقق من شفرة مصدر قاعدة البيانات الحساسة بحثًا عن الأخطاء ، وطالب آخر بتحسين الكود ، وقام ثالث بتغذية اجتماع مسجل في ChatGPT وطلب منه إنشاء دقائق.

تشير إلى أنه بعد التعرف على الأخطاء الأمنية ، حاولت Samsung الحد من مدى الأخطاء المستقبلية عن طريق تقييد طول رسائل ChatGPT للموظفين إلى كيلوبايت ، أو 1024 حرفًا من النص. يقال أيضًا أن الشركة تحقق مع الموظفين الثلاثة المعنيين وتبني روبوت الدردشة الخاص بها لمنع حوادث مماثلة. اتصلت Engadget بشركة Samsung للتعليق.

تنص ChatGPT على أنه ما لم ينسحب المستخدمون صراحةً ، فإنه يستخدم مطالباتهم لتدريب نماذجها. لا يقوم OpenAI مالك برنامج chatbot بمشاركة المعلومات السرية مع ChatGPT في المحادثات لأنه “غير قادر على حذف مطالبات معينة من سجلك”. الطريقة الوحيدة للتخلص من معلومات التعريف الشخصية على ChatGPT هي حذف حسابك – وهي عملية.

تعد ملحمة Samsung مثالًا آخر على سبب كونها كما ينبغي مع كل أنشطتك على الإنترنت. أنت لا تعرف حقًا أين ستنتهي بياناتك.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى