Meta’nın Lama Çerçevesi Kususu, AI sistemlerini uzaktan kod yürütme risklerine maruz bırakır


Lama Çerçevesi

Meta’nın Lama Büyük Dil Modeli (LLM) çerçevesinde, başarılı bir şekilde sömürülürse, bir saldırganın Lama-Stack çıkarım sunucusunda keyfi kod yürütmesine izin verebilecek yüksek şiddetli bir güvenlik kusuru açıklanmıştır.

CVE-2024-50050 olarak izlenen güvenlik açığı, 10.0 üzerinden 6.3’lük bir CVSS skoru atandı. Tedarik zinciri güvenlik firması Snyk ise 9.3 kritik bir önem derecesi verdi.

Oligo Güvenlik Araştırmacısı Avi Lumelsky, bu hafta başlarında bir analizde, “Meta-Llama’nın etkilenen sürümleri, güvenilmeyen verilerin seansize edilmesine karşı savunmasızdır, yani bir saldırganın süzülücü olan kötü niyetli veriler göndererek keyfi kod uygulayabileceği anlamına gelir.” Dedi.

Bulut güvenlik şirketi başına eksik olan, Meta’nın kendi Llama modellerini kullanma da dahil olmak üzere yapay zeka (AI) uygulama geliştirme için bir dizi API arayüzü tanımlayan Lama Stack adlı bir bileşende bulunuyor.

Spesifik olarak, referans python çıkarım API uygulamasında bir uzaktan kod yürütme kusuru ile ilgili olarak, python nesnelerini turşu kullanarak otomatik olarak serileştirdiği bulunmuştur, bu da kayıtsız veya kötü niyetli veriler, kötü niyetli veriler yürütme olasılığı nedeniyle riskli olarak görülen bir formattır. kütüphaneyi kullanarak yükleniyor.

Siber güvenlik

Lumelsky, “Zeromq soketinin ağ üzerinde maruz kaldığı senaryolarda, saldırganlar sokete hazırlanmış kötü niyetli nesneler göndererek bu güvenlik açığını kullanabilirler.” Dedi. “Recv_pyobj bu nesneleri açacağından, bir saldırgan ana makinede keyfi kod yürütme (RCE) elde edebilir.”

24 Eylül 2024’teki sorumlu açıklamanın ardından, sorun 10 Ekim’de 0.0.41 sürümünde Meta tarafından ele alındı. Ayrıca Zeromq mesajlaşma kütüphanesine erişim sağlayan bir Python kütüphanesi olan Pyzmq’te de düzeltildi.

Meta tarafından yayınlanan bir danışma belgesinde, şirket, JSON formatına geçerek, soket iletişimi için turşu kullanma ile ilgili uzaktan kod yürütme riskini düzelttiğini söyledi.

Bu, AI çerçevelerinde ilk kez bu tür seansizasyon güvenlik açıkları keşfedilmemiştir. Ağustos 2024’te Oligo, Tensorflow’un Keras çerçevesinde, CVE-2024-3660 (CVSS skoru: 9.8) için bir baypas, güvensiz mareşal modülünün kullanımı nedeniyle keyfi kod uygulamasına neden olabilecek bir “gölge güvenlik açığı” detaylandırdı.

Geliştirme, güvenlik araştırmacısı Benjamin Flesch’in, Openai’nin Chatgpt paletinde, keyfi web sitelerine karşı dağıtılmış bir hizmet reddi (DDOS) saldırısı başlatmak için silahlandırılabilecek yüksek şeffaf bir kusur olduğunu açıkladı.

Sorun, “chatgpt’e HTTP post isteklerinin yanlış işlenmesinin sonucudur.[.]com/backend-api/atıflar “API” API, URL’lerin bir listesini giriş olarak kabul etmek için tasarlanmıştır, ancak ne aynı URL’nin listede birkaç kez görünüp görünmediğini veya girdi olarak iletilebilecek köprü sayısında bir sınır uygularsa kontrol eder .

Lama Çerçevesi

Bu, kötü bir aktörün tek bir HTTP isteği içinde binlerce köprüyü iletebileceği bir senaryo açar ve Openai’nin tüm bu istekleri, bağlantı sayısını sınırlamaya veya yinelenen talepleri önlemeye çalışmadan kurban sitesine göndermesine neden olur.

Openai’ye iletilen köprü sayısına bağlı olarak, potansiyel DDOS saldırıları için önemli bir amplifikasyon faktörü sağlar ve hedef sitenin kaynaklarını etkili bir şekilde ezmektedir. AI şirketi o zamandan beri sorunu yamaladı.

Flesch, “ChatGPT tarayıcısı, ilgisiz bir ChatGPT API’sına HTTP isteği yoluyla bir kurban web sitesi DDOS’a tetiklenebilir.” Dedi. “Openai yazılımındaki bu kusur, şüphesiz bir kurban web sitesinde bir DDOS saldırısı doğuracak ve Chatgpt prawler’ın çalıştığı birden fazla Microsoft Azure IP adresi aralığı kullanacak.”

Açıklama ayrıca Truffle Security’den, popüler AI ile çalışan kodlama asistanlarının, deneyimsiz programcıların projelerinde güvenlik zayıflıkları getirmeleri için yanlış yönlendirebilecek riskli bir tavsiye olan sert kodlayan API anahtarlarını ve şifrelerini “önerdikleri” bir rapor izliyor.

Güvenlik araştırmacısı Joe Leon, “LLMS, muhtemelen tüm güvensiz kodlama uygulamaları konusunda eğitildikleri için devam ettiriyor.” Dedi.

LLM çerçevelerindeki güvenlik açıkları haberleri, son aşama stealer yükü ve komut ve kontrolü yükleme de dahil olmak üzere, modellerin siber saldırı yaşam döngüsünü güçlendirmek için nasıl istismar edilebileceği konusunda araştırmaları takip ediyor.

Siber güvenlik

Derin içgüdü araştırmacısı Mark Vaitzman, “LLM’lerin ortaya koyduğu siber tehditler bir devrim değil, bir evrimdir.” Dedi. “Orada yeni bir şey yok, LLM’ler siber tehditleri daha büyük ölçekte daha iyi, daha hızlı ve daha doğru hale getiriyor. altta yatan teknoloji ilerledikçe özerklikte. “

Son araştırmalar ayrıca, hesaplama grafiğinden yararlanarak mimarisi, tipi ve ailesi de dahil olmak üzere model şecere tanımlamak için kullanılabilecek Shadowgenes adı verilen yeni bir yöntem göstermiştir. Yaklaşım, ShadowLogic olarak adlandırılan daha önce açıklanmış bir saldırı tekniğine dayanmaktadır.

Hacker News ile paylaşılan AI güvenlik firması Hiddenlayer, “Hesaplamalı bir grafik içindeki kötü niyetli saldırıları tespit etmek için kullanılan imzalar, tekrar eden subgraflar olarak adlandırılan tekrarlayan kalıpları izlemek ve tanımlamak için uyarlanabilir ve bir modelin mimari şecere” dedi.

“Kuruluşunuzda kullanılan model aileleri anlamak, AI altyapınız hakkındaki genel farkındalığınızı arttırır ve daha iyi güvenlik duruş yönetimine izin verir.”

Bu makaleyi ilginç mi buldunuz? Bizi takip et Twitter ve daha fazla özel içeriği okumak için LinkedIn.





Source link