Pentester perspektifinden 2025’in en büyük saldırılarına ilişkin tahminler


Eski Ne Yeni: Ağ ve Web Uygulaması Güvenlik Açıkları

2024’ün haber değeri taşıyan ilk yapay zeka ihlali, akıl almaz bir anlık enjeksiyondan değil, klasik istismar taktiklerinden geldi. Kuruluşların her yerde LLM ve AI ürünlerini işlerine nasıl uyum sağladıklarını görmek için test ettiklerini gördüğümüzde, hızla yeni yazılımları ve saldırı yüzeylerini ortamlara tanıtıyorlar. Bu özellikle kuruluşların genel bulut tabanlı yapay zeka modellerini (örn. OpenAI) sınırlamaya çalıştığı ve bunun yerine açık kaynaklı yazılım, açık kaynaklı modeller veya özel şirket içi dağıtımları kullandığı için geçerlidir. Sızma testi ekibi olarak bu ürünlerin iç ve dış ağlara dağıtıldığını görmeye başlıyoruz. Bu ürünler genellikle geçmişteki etkileşimlerde yararlandığımız tüm klasik güvenlik açıklarını taşıdığından, kuruluşların dikkatli olması gerekir. Daha da fazlası çünkü her şey çok hızlı ilerliyor.

Yapay zeka ekosisteminin 2025’te devam eden patlayıcı büyümesi, geleneksel siber güvenlik açıklarını devralırken saldırı yüzeyini de önemli ölçüde genişletecek. Tedarik Zinciri Kaygıları

Ne yazık ki, tedarik zinciri endişeleri yapay zeka için iki cephede etkili oluyor. İlk olarak, sektörde hâlihazırda uğraştığımız aynı tedarik zinciri endişelerini görüyoruz; kötü amaçlı paketler, güvenlik açığı bulunan bağımlılıklar ve yetersiz Yazılım Malzeme Listeleri (SBOM’lar). Örneğin, tartışmasız en popüler aracı çerçeve olan ve Github’da 50.8K yıldıza sahip olan n8n (https://github.com/n8n-io/n8n), içinde 25.780 satır içeren bir bağımlılık paketi kilit dosyasına sahiptir. Satır sayısı mükemmel bir karmaşıklık ölçüsü olmasa da, kritik bir konuyu göstermektedir: Hızla gelişen bu araçlar, yüzlerce farklı yazarın kitaplıklarına bağlıdır. Toplamda, tüm araçların çeşitli ortamlarda test edildiği göz önüne alındığında, bu bariz bir saatli bombadır.

İkincisi, modellerin kendisinde tedarik zinciri riskleri var. Yani, bir modeli zehirleyebilen ve modelin karar verme mekanizmasını veya gizliliğini ayarlayabilen kötü niyetli bir aktör, modelin bağlı olduğu ürünleri kalıcı olarak yok eder. Örneğin ByteDance’in şu anda çok sayıda modelini zehirleyen eski bir stajyere karşı 1,1 milyon dolarlık bir davası var. Güvenliği ihlal edilmiş veya kötü niyetli olarak eğitilmiş modeller, geleneksel testlerle tespit edilmesi zor olan arka kapılar veya önyargılar ortaya çıkarabileceğinden, kuruluşların dağıttıkları tüm modellerin sağlandığını dikkatli bir şekilde doğrulamaları gerekir.

Bu sorunların her ikisi de o kadar endişe verici ki, halihazırda Büyük Dil Modeli Uygulamaları için 2025 OWASP İlk 10’unda (LLM05: Tedarik Zinciri Güvenlik Açıkları) yer alıyorlar. Önümüzdeki yıl bunun daha fazlasını göreceğimize eminiz. Hızlı Enjeksiyon Gelişimi

Hızlı enjeksiyon saldırıları iyi belgelenmiş olsa da, muhtemelen daha karmaşık hale gelecektir. LLM’ler daha karmaşık sistemlere entegre edildikçe, saldırganlar muhtemelen modelin davranışını manipüle eden veya eğitim verilerinden hassas bilgiler çıkaran girdiler oluşturmanın yeni yollarını bulacaktır. Sprocket olarak bunu zaten birkaç farklı değerlendirmede bulduk. Bu özellikle Yüksek Lisans’ların iç sistemlere, veritabanlarına ve aracı çerçevelere bağlandığı durumlarda geçerlidir.

Hızlı enjeksiyon büyük ölçüde çözülmemiş bir sorundur ve iyileşmeden önce daha da kötüleşecektir. 2025’te, daha etkili ve haber değeri taşıyan istismarlar için hızlı enjeksiyonun kullanıldığını göreceğiz. Kaynak Tüketimi Saldırıları

Yüksek Lisans’lar kritik ancak gözden kaçan bir güvenlik açığıyla karşı karşıyadır: kaynak tüketimi saldırıları. Bu tehditler, LLM hizmetlerinin token başına fiyatlandırma modellerinden yararlanarak, hesaplama yükünün ötesine geçerek finansal kaynakları hedeflemeye kadar uzanır. Bu sistemlerin hesaplama perspektifinden ve API maliyet sorunu açısından çalıştırılması pahalıdır. Bu, diğer bulut tabanlı dağıtımların çoğundan çok farklıdır. 2025’te maliyetle ilgili tehditlerin, diğer konuşlandırılan uygulama yığınlarından daha gerçek hale gelmesi muhtemeldir.

AI ve LLM ürünlerinin çalıştırılması pahalıdır. Yapay zekayla konuşlandırılan ürünler için maliyet ve maliyet azaltımı etrafında bir artış tehdidi modeli göreceğiz.

Reklam

LinkedIn grubumuz “Bilgi Güvenliği Topluluğu”nda 500.000’den fazla siber güvenlik profesyoneline katılın!



Source link