ChatGPT gibi Yüksek Lisans benzeri Modeller Güvenlik Açıklarını nasıl düzeltir?


ChatGPT gibi LLM benzeri Modeller, SoC İşlevlerindeki Güvenlik Açıklarını nasıl düzeltir?

Büyük Dil Modellerinin (LLM’ler) ortaya çıkışı, NLP’yi dönüştürüyor ve NLG, NLU ve bilgi alma görevlerindeki performansı artırıyor.

Öncelikle üretme, özetleme, çeviri ve akıl yürütme gibi metinle ilgili görevlerde mükemmeldirler ve dikkate değer bir ustalık sergilerler.

Florida Üniversitesi, Gainesville, Florida, ABD Elektrik ve Bilgisayar Mühendisliği Bölümü’nden bir grup siber güvenlik analisti (Dipayan Saha, Shams Tarek, Katayoon Yahyaei, Sujan Kumar Saha, Jingbo Zhou, Mark Tehranipoor ve Farimah Farahmandi) yakın zamanda şunları doğruladı: ChatGPT gibi LLM modelleri SoC fonksiyonlarındaki güvenlik açıklarını düzeltebilir.

Belge

Ücretsiz demo

Yapay Zeka Destekli E-posta güvenlik çözümlerini uygulamak “Trustifi”, işletmenizi E-posta İzleme, Engelleme, Değiştirme, Kimlik Avı, Hesabın Devralınması, İş E-postasının Tehlikeye Atılması, Kötü Amaçlı Yazılım ve Fidye Yazılımı gibi günümüzün en tehlikeli e-posta tehditlerine karşı koruyabilir


Yüksek Lisans Benzeri Modeller

Çeşitli cihazlarda çip üzerinde sistem (SoC) teknolojisinin artan yaygınlığı, entegre IP çekirdekleri arasındaki karmaşık etkileşimler nedeniyle güvenlik endişelerini artırıyor ve SoC’leri bilgi sızıntısı ve erişim kontrolü ihlalleri gibi tehditlere karşı savunmasız hale getiriyor.

Üçüncü taraf IP’lerin varlığı, pazara çıkış süresi baskıları ve ölçeklenebilirlik sorunları, karmaşık SoC tasarımları için güvenlik doğrulamasını zorlaştırır. Mevcut çözümler, gelişen donanım tehditlerine ve çeşitli tasarımlara ayak uydurmakta zorlanıyor.

SoC güvenliğinde Yüksek Lisans’ları keşfetmek, karmaşıklığın, çeşitliliğin ve inovasyonun üstesinden gelmek için umut verici bir fırsatı temsil ediyor.

Yüksek Lisans’lar, dört temel güvenlik görevine odaklanan uzmanlarla özelleştirilmiş öğrenme, hızlı mühendislik ve aslına uygunluk kontrolleri yoluyla alanlar arasında güvenliği yeniden tanımlama potansiyeline sahiptir: –

  • Güvenlik Açığı Ekleme
  • Güvenlik değerlendirmesi
  • güvenlik doğrulaması
  • Karşı Tedbir Geliştirme
SoC güvenliğinde LLM'nin potansiyel uygulamaları
SoC güvenliğinde LLM’nin potansiyel uygulamaları (Kaynak – Arxiv)

Yayınlanan makalede, karmaşık modern SoC’lerin gizli güvenlik açıklarına eğilimli olduğu ve RTL tasarım aşamasındaki hataların ele alınmasının, uygun maliyetli güvenlik doğrulaması için hayati önem taşıdığı belirtiliyor.

Dikkat mekanizmalarını devreye sokan ve yinelenen veya evrişimli katmanlara olan ihtiyacı ortadan kaldıran Transformer modeli, dil modellerinin evriminin yolunu açtı.

GPT-1, GPT-2 ve GPT-3, dil modellemenin sınırlarını zorlarken, GPT-3.5 ve GPT-4, değişen belirteç limitleri ve optimizasyonlara sahip bir dizi model sunarak bu yetenekleri daha da geliştirdi.

OpenAI’nin ChatGPT’sinden Google’ın Bard ve Baize’sine, Anthropic’in Claude 2’sine, Vicuna’sına ve MosaicML’nin MPT-Chat’ine kadar, LLM’lerdeki son gelişmeler, gelişmiş insan benzeri metin üretimi ve genişletilmiş yetenek arayışını öne çıkarıyor.

Araştırma soruları

Aşağıda tüm araştırma sorularından bahsettik: –

  • GPT, doğal dil talimatlarına dayalı bir donanım tasarımına güvenlik açığı ekleyebilir mi?
  • GPT tarafından oluşturulan HDL tasarımlarının sağlamlığından nasıl emin olabiliriz?
  • GPT güvenlik doğrulaması yapabilir mi?
  • GPT güvenlik tehditlerini tespit edebiliyor mu?
  • GPT, HDL’deki kodlama zayıflıklarını tespit edebilir mi?
  • GPT, güvenlik tehditlerini giderip azaltılmış bir tasarım oluşturabilir mi?
  • Donanım güvenliği görevlerini gerçekleştirmek için bilgi istemi nasıl olmalıdır?
  • GPT büyük açık kaynaklı tasarımlarla başa çıkabilir mi?

GPT-3.5’in donanım güvenlik açıklarını ve CWE’leri yerleştirme potansiyeli, donanım güvenliği alanındaki veritabanlarının azlığı nedeniyle araştırılıyor.

Bir çalışmada güvenlik araştırmacıları, GPT-3.5 ve GPT-4’ün AES tasarımlarındaki donanım Truva Atlarını tespit etme yeteneklerini farklı testler kullanarak değerlendirdi. GPT-3.5 sınırlı bilgi ve performans sergilerken GPT-4 etkileyici bir doğrulukla onu geride bıraktı.

GPT-4’ün yeteneği, geleneksel makine öğrenimi yaklaşımlarına göre avantajlar sunarak, donanım güvenliği değerlendirmeleri için değerli bir araç olma potansiyelini vurguluyor.

Tasarım bağımlılıklarını ele alır ve donanım tasarımlarının daha bütünsel bir analizini sunarak Truva atı tespitini geliştirir.

850’den fazla üçüncü taraf uygulamaya hızlı bir şekilde yama uygulamak için Patch Manager Plus’ı kullanarak kendinizi güvenlik açıklarından koruyun. Avantajlardan yararlanın ücretsiz deneme % 100 güvenlik sağlamak için.



Source link