مقالات التقنية

يُظهر تقرير قابل للنقاش كيف أن الذكاء الاصطناعي التوليدي يغير البحث الأمني


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


اليوم ، نشر مزود إدارة الثغرات الأمنية Tenable تقريرًا جديدًا يوضح كيف يقوم فريق البحث التابع له بتجربة نماذج اللغة الكبيرة (LLMs) والذكاء الاصطناعي التوليدي لتعزيز البحث الأمني.

يركز البحث على أربع أدوات جديدة مصممة لمساعدة الباحثين البشريين على تبسيط الهندسة العكسية ، وتحليل الثغرات الأمنية ، وتصحيح أخطاء الكود وأمن تطبيقات الويب ، وتحديد التكوينات الخاطئة المستندة إلى السحابة.

توضح هذه الأدوات ، المتوفرة الآن على GitHub ، أن أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT لها دور مهم تلعبه في حالات الاستخدام الدفاعي ، لا سيما عندما يتعلق الأمر بتحليل الكود وترجمته إلى تفسيرات يمكن للبشر قراءتها حتى يتمكن المدافعون من فهم الكيفية بشكل أفضل. يعمل ونقاط الضعف المحتملة.

قال التقرير: “استخدمت Tenable بالفعل LLMs لبناء أدوات جديدة تسرع العمليات وتساعدنا على تحديد نقاط الضعف بشكل أسرع وأكثر كفاءة”. “على الرغم من أن هذه الأدوات بعيدة كل البعد عن أن تحل محل مهندسي الأمن ، إلا أنها يمكن أن تعمل كمضاعف للقوة وتقليل بعض الأعمال كثيفة العمالة والمعقدة عند استخدامها من قبل باحثين متمرسين.”

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

أتمتة الهندسة العكسية باستخدام G-3PO

إحدى الأدوات الرئيسية الموضحة في البحث هي G-3PO ، وهو نص ترجمة لإطار عمل الهندسة العكسية Ghidra. G-3PO ، التي طورتها وكالة الأمن القومي ، هي أداة تفكك الكود وتفككه إلى “شيء يشبه كود المصدر” في لغة البرمجة سي.

تقليديا ، سيحتاج المحلل البشري إلى تحليل هذا مقابل قائمة التجميع الأصلية للتأكد من كيفية عمل جزء من الكود. تقوم G-3PO بأتمتة العملية عن طريق إرسال كود Ghidra الذي تم فك تشفيره C إلى LLM (نماذج داعمة من OpenAI و Anthropic) وتطلب توضيحًا لما تقوم به الوظيفة. نتيجة لذلك ، يمكن للباحث فهم وظيفة الكود دون الحاجة إلى تحليلها يدويًا.

في حين أن هذا يمكن أن يوفر الوقت ، في مقطع فيديو على YouTube يشرح كيفية عمل G-3PO ، حذرت أوليفيا فريزر ، باحثة يوم الصفر في Tenable ، من أنه يجب على الباحثين دائمًا التحقق من الإخراج للتأكد من دقته.

قال فريزر: “من نافلة القول بالطبع أن ناتج G-3PO ، تمامًا مثل أي أداة آلية ، يجب أن يؤخذ بحبوب الملح وفي حالة هذه الأداة ، ربما مع عدة ملاعق كبيرة من الملح”. “يجب بالطبع التحقق دائمًا من ناتجها مقابل الشفرة التي تم فك تشفيرها وضد التفكيك ، ولكن هذا مساوٍ لمسار المهندس العكسي.”

BurpGPT: مساعد AI لأمان تطبيق الويب

حل آخر واعد هو BurpGPT ، وهو امتداد لبرنامج اختبار التطبيقات Burp Suite الذي يمكّن المستخدمين من استخدام GPT لتحليل طلبات واستجابات HTTP.

يعترض BurpGPT حركة مرور HTTP ويعيد توجيهها إلى OpenAI API ، حيث يتم تحليل حركة المرور لتحديد المخاطر والإصلاحات المحتملة. في التقرير ، أشار Tenable إلى أن BurpGPT أثبت نجاحه في تحديد نقاط الضعف في البرمجة النصية للمواقع (XSS) ورؤوس HTTP التي تم تكوينها بشكل خاطئ.

لذلك توضح هذه الأداة كيف يمكن أن تلعب LLM دورًا في تقليل الاختبار اليدوي لمطوري تطبيقات الويب ، ويمكن استخدامها لأتمتة عملية اكتشاف الثغرات الأمنية جزئيًا.

“يبدو أن EscalateGPT أداة واعدة جدًا. غالبًا ما تمثل سياسات IAM شبكة معقدة متشابكة من تعيينات الامتيازات. غالبًا ما تتسلل عمليات المراقبة أثناء وضع السياسات وصيانتها ، مما يؤدي إلى ظهور نقاط ضعف غير مقصودة يستغلها المجرمون لصالحهم. قال أفيفاه ليتان ، محلل نائب الرئيس في جارتنر في رسالة بريد إلكتروني إلى VentureBeat ، إن الانتهاكات السابقة ضد البيانات والتطبيقات المستندة إلى السحابة تثبت هذه النقطة مرارًا وتكرارًا.

EscalateGPT: تحديد مشكلات سياسة IAM باستخدام الذكاء الاصطناعي

في محاولة لتحديد التكوينات الخاطئة لسياسة IAM ، طور فريق البحث في Tenable EscalateGPT ، وهي أداة Python مصممة لتحديد فرص تصعيد الامتيازات في Amazon Web Services IAM.

بشكل أساسي ، يجمع EscalateGPT سياسات IAM المرتبطة بالمستخدمين الفرديين أو المجموعات ويقدمها إلى OpenAI API لتتم معالجتها ، ويطلب من LLM تحديد فرص تصعيد الامتياز المحتملة وعمليات التخفيف.

بمجرد الانتهاء من ذلك ، يشارك EscalateGPT ناتجًا يوضح بالتفصيل مسار تصعيد الامتياز واسم مورد Amazon (ARN) للسياسة التي يمكن استغلالها ، ويوصي باستراتيجيات التخفيف لإصلاح الثغرات الأمنية.

على نطاق أوسع ، توضح حالة الاستخدام هذه كيف يمكن استخدام LLM مثل GPT-4 لتحديد التكوينات الخاطئة في البيئات المستندة إلى مجموعة النظراء. على سبيل المثال ، يشير التقرير إلى أن GPT-4 حدد بنجاح سيناريوهات معقدة لتصعيد الامتيازات بناءً على سياسات غير بسيطة من خلال حسابات IAM متعددة.

عند جمعها معًا ، تُبرز حالات الاستخدام هذه أن LLMs والذكاء الاصطناعي التوليفي يمكن أن يعملوا كمضاعف قوة لفرق الأمن لتحديد نقاط الضعف ورمز العملية ، ولكن لا يزال يتعين فحص مخرجاتهم يدويًا لضمان الموثوقية.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى