News

إعلان عبر الموقع الالكتروني علماء يطورون نموذج تعلم عميق رائد للبيئات الأمنية الآنية

tii_logo_thumbnail

طوّر فريق علماء من جامعة برينستون وجامعة كاليفورنيا لوس أنجلوس إطاراً رائداً للكشف عن برمجيات الاستغلال يعتمد على قواعد بيانات أمان الكمبيوتر العامة ويستخدم مجموعة من التقنيات المبنية على الأنماط لإطلاق إنذار عند اكتشاف مشكلة أمنية. وضمّ الفريق الدكتورة نجوى أعرج، خريجة من جامعة برينستون وكبيرة الباحثين لدى مركز بحوث التشفير ومركز بحوث الروبوتات المستقلة.

استعان العلماء سابقاً بعدد من أدوات التعلم الآلي التي أثبتت نجاحها في تطبيقات أخرى، بما فيها نماذج التعلم العميق "ترانسفورمرز"، والشبكات العصبية الاصطناعية للذاكرة قصيرة المدى المستمرة لفترة أطول. إلا أن هذه المقاربات تتطلب حملاً حسابياً كبيراً، مما يعوق نجاحها في بيئات الأمان الآنية.

وأثبت النموذج الجديد، المسمى ML-FEED، بأنه أسرع بما يفوق 70 ضعفاً من الشبكات العصبية الاصطناعية الخفيفة للذاكرة قصيرة المدى المستمرة لفترة أطول وأسرع بـ 75,000 ضعف من نموذج "ترانسفورمرز" في مهمات اكتشاف برمجيات الاستغلال التي نفذها الفريق. كما يعد الإطار الجديد أدق بقليل من المقاربتين المماثلتين المذكورتين.

ونشر الفريق مقالة بحثية تُبرز ذلك الإنجاز بعنوان "ML-FEED: إطار تعلم آلي للكشف الفعال عن برمجيات الاستغلال"، شاركت في تأليفها الدكتورة نجوى مع تانوجاي ساها، ونيراج جا من جامعة برينستون إلى جانب تمجيد الراحات، ويوان تيان من جامعة كاليفورنيا لوس أنجلوس. وفاز البحث في شهر ديسمبر من العام الماضي بجائزة أفضل مقالة بحثية خلال مؤتمر معهد مهندسي الكهرباء والإلكترونيات الدولي حول الثقة والخصوصية والأمن في الأنظمة والتطبيقات الذكية لعام 2022.