Yapay zeka, LLM’nin güvenlik açığı araştırması yapmasına yardımcı olmak için Google Naptime’ı yönlendirdi


Güvenlik araştırmacıları, Büyük Dil Modellerinde (LLM’ler) güvenlik açıklarını ararken önemli zorluklarla karşılaşıyor. Ancak Google’ın Naptime Çerçevesi, değişken analizini otomatikleştirerek yapay zeka odaklı güvenlik açığı araştırmasında çığır açıcı bir gelişme sağlıyor.

Adını, araştırmacıların büyük ölçekli dil modellerini yoğun bir şekilde araştırırken “biraz kestirmelerine” olanak tanıyan konseptinden alan Naptime Framework, analiz ve hipotez testi de dahil olmak üzere insan güvenliği uzmanlarının kullandığı yöntemleri yakından yansıtıyor. Bu yaklaşım, güvenlik açıklarının belirlenmesinde kesin ve tekrarlanabilir sonuçlar sağlar.

2023’ten bu yana test edilen ve Google’ın Project Zero ilkeleriyle uyumlu olan çerçeve, Facebook’un ana şirketi Meta tarafından Nisan 2024’te belirlenen CyberSecEval2 standartlarına göre karşılaştırılarak LLM’lerdeki güvenlik açığı tespitinin verimliliğini artırmayı amaçlıyor.

Bu arada teknoloji forumlarında Meta’nın sanal gerçeklik başlıklarını hedef alan fidye yazılımlarıyla ilgili tartışmalar ortaya çıktı. Uzamsal Bilgi İşlem saldırıları olarak adlandırılan sanal kulaklıklara yönelik saldırılar nadirdir ancak Apple Vision Pro’nun hacklenmesi gibi olayların ardından dikkatleri üzerine çekti.

Meta’nın Android Açık Kaynak Projesinde çalışan kulaklıklarına rağmen teknik analistler, geliştirici moduna erişim olmadan bu tür cihazlardan ödün vermenin zor olduğunu ve nadir görülen bir durum olduğunu ileri sürüyor.

Bu tartışma meraklılar arasında ilgiyi artırdı, özellikle de Kovid-19 izleme uygulaması olarak gizlenen bir fidye yazılımı olan KovidLock’un geçen yıl yönetici düzeyinde izin gerektirmeden binlerce cihaza nasıl bulaştığının ışığında. Bu konu oldukça tartışmalı olmaya devam ediyor ve şu anda üst düzey teknoloji forumlarında trend oluyor.

Reklam



Source link