يمكن لـ ChatGPT كتابة برامج ضارة متعددة الأشكال لإصابة جهاز الكمبيوتر الخاص بك

يمكن لـ ChatGPT كتابة برامج ضارة متعددة الأشكال لإصابة جهاز الكمبيوتر الخاص بك

موقع شبرون للتقنية والأخبار- متابعات تقنية:

صورة: يوتاناس (صراع الأسهم)

ChatGPT ، متعدد المواهب AI- روبوت الدردشة، لديه مهارة أخرى لإضافتها إلى ملفه الشخصي على LinkedIn: تصنيع برامج ضارة معقدة “متعددة الأشكال”.

نعم وفقا لما نشر حديثا أبلغ عن من شركة الأمان CyberArk ، فإن chatbot من OpenAI جيد جدًا في تطوير البرامج الضارة التي يمكن أن تفسد أجهزتك بشكل ملكي. كان المتخصصون في Infosec يحاولون ذلك دق ناقوس الخطر حول كيف يمكن للأداة الجديدة التي تعمل بالذكاء الاصطناعي تغيير اللعبة عندما يتعلق الأمر بالجرائم الإلكترونية ، على الرغم من أن استخدام روبوت المحادثة لإنشاء أنواع أكثر تعقيدًا من البرامج الضارة لم تتم كتابته على نطاق واسع حتى الآن.

يكتب باحثو CyberArk أن الكود الذي تم تطويره بمساعدة ChatGPT يعرض “قدرات متقدمة” يمكنها ذلك “التهرب بسهولة من منتجات الأمان” ، وهي فئة فرعية محددة من البرامج الضارة تُعرف باسم “متعددة الأشكال”. ماذا يعني ذلك بشكل ملموس؟ الإجابة المختصرة حسب خبراء الإنترنت في CrowdStrike، هذا هو:

يعد الفيروس متعدد الأشكال ، الذي يشار إليه أحيانًا بالفيروس المتحولة ، نوعًا من البرامج الضارة التي تمت برمجتها لتغيير مظهرها أو ملفات التوقيع بشكل متكرر من خلال إجراءات فك التشفير الجديدة. هذا يجعل العديد من أدوات الأمن السيبراني التقليدية ، مثل حلول مكافحة الفيروسات أو البرامج الضارة ، التي تعتمد على الاكتشاف القائم على التوقيع ، تفشل في التعرف على التهديد وحظره.

في الأساس ، هذه هي البرامج الضارة التي يمكن أن تتغير بشكل مشفر طريقه حول آليات الأمان التقليدية ، والتي تم تصميم العديد منها لتحديد واكتشاف توقيعات الملفات الضارة.

على الرغم من حقيقة أنه من المفترض أن يكون لدى ChatGPT المرشحات أن منع إنشاء البرامج الضارة من الحدوث ، تمكن الباحثون من التغلب على هذه الحواجز من خلال الإصرار فقط على أنها تتبع أوامر الموجه. بعبارة أخرى ، قاموا فقط بتخويف المنصة للامتثال لمطالبهم – وهو شيء لاحظه المجربون الآخرون عند محاولتهم استحضار محتوى سام مع روبوت المحادثة. بالنسبة لباحثي CyberArk ، كان الأمر مجرد محاولة لإغواء ChatGPT في عرض كود لبرمجة ضارة معينة – والتي يمكنهم استخدامها بعد ذلك لإنشاء مآثر معقدة تتجنب الدفاع. والنتيجة هي أن ChatGPT يمكن أن يقوم بالقرصنة أسهل بكثير لأطفال البرامج النصية أو غيرهم من مجرمي الإنترنت الهواة الذين يحتاجون إلى القليل من المساعدة عندما يتعلق الأمر بإنشاء برامج ضارة.

يقول تقرير CyberArk: “كما رأينا ، يمكن أن يمثل استخدام واجهة برمجة تطبيقات ChatGPT داخل البرامج الضارة تحديات كبيرة لمحترفي الأمن”. “من المهم أن نتذكر أن هذا ليس مجرد سيناريو افتراضي ولكنه مصدر قلق حقيقي للغاية.” نعم فعلا.


اكتشاف المزيد من موقع شبرون

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *