Kaspersky’deki siber güvenlik araştırmacıları, AI tarafından üretilen kodun yaygın olarak benimsenmesinden kaynaklanan yeni bir tedarik zinciri kırılganlığı belirlediler.
Yapay zeka asistanları giderek daha fazla yazılım geliştirmeye katıldıkları için Microsoft CTO Kevin Scott, AI’yı öngören beş yıl içinde kodun% 95’ini yazacak-“Slopsquatting” adı verilen bir fenomen önemli güvenlik tehditleri oluşturmaktadır.
Bu risk, saldırganların bu fantom adlarıyla kötü amaçlı paketler oluşturarak kullanabileceği var olmayan yazılım bağımlılıklarını halüsinasyon yapan AI sistemlerinden kaynaklanmaktadır.
.png
)
16 popüler büyük dil modeli (LLMS) tarafından üretilen 576.000 python ve JavaScript kodu örneğini inceleyen kapsamlı bir çalışma, halüsinasyonlu bağımlılıkların kalıpları ile ilgili olarak ortaya çıkmıştır.
GPT-4 ve GPT-4 Turbo, en düşük hayali kütüphaneler oranlarını (%5’in altında) gösterirken, diğer modeller önemli ölçüde daha yüksek oran-derinlikli modeller%15’i aştı ve Codellama 7B%25’i aştı.
Sıcaklık ve üst-P değerleri gibi rastgele parametrelerin ayarlanması bile halüsinasyonları ihmal edilebilir seviyelere düşüremedi.
Araştırma, JavaScript kodunun Python’a (%16) kıyasla daha fazla fantom bağımlılık (%21) içerdiğini ve daha yeni teknolojilerin%10 daha var olmayan paketleri tetiklediğini ortaya çıkardı.
En endişe verici olan, halüsinasyonlu paket isimlerinin% 43’ünün birden fazla nesil denemesinde sürekli olarak yeniden ortaya çıktığını keşfetti.
Adlandırma kalıpları tanınabilir kalıpları izledi:% 13’ü meşru paketlerden tek bir karakterle farklılık gösteren yazım hatalarına benziyordu,% 9’u diğer programlama dillerinden borçlanmış isimler ve% 38’i mantıksal olarak makul ama var olmayan isimler kullandı.
Slopsquatting saldırıları
“Slopsquatting” adlı bu yeni saldırı vektörü, AI halüsinasyonlarının öngörülebilir doğasından yararlanıyor.
İnsan yazma hatalarını hedefleyen geleneksel yazım hatalarının aksine, slopsquatting tekrarlanan AI hatalarından yararlanır.
Saldırganlar popüler AI modelleri çalıştırabilir, sık sık halüsinasyonlu paket adlarını belirleyebilir ve bu isimleri kamu depolarında kullanarak kötü amaçlı kütüphaneler yayınlayabilir.
Risk, geliştiricilerin minimal kod incelemesiyle AI’ya üst düzey talimatlar sağladığı “vibe kodlama” uygulamalarıyla yoğunlaşır.
Geliştiriciler veya otomatik sistemler, referanslı tüm paketleri doğrulamadan yüklemeye çalışırsa, kötü niyetli bağımlılıklar tüm tedarik zincirini tehlikeye atabilir (ATT & CK T1195.001).
Geçtiğimiz yıl açık kaynaklı depolarda bulunan yaklaşık 20.000 kötü amaçlı kütüphanenin bulunmasıyla, güvenlik uzmanları tehdit aktörlerinin sistematik olarak bu güvenlik açığından yararlanacağını öngörüyor.
AI destekli gelişme
Kaspersky, slopsquatting risklerini azaltmak için beş temel önlem önerir:
- Tüm bağımlılıkları doğrulamak ve gömülü sırları veya jetonları ortadan kaldırmak için geliştirme boru hatlarında otomatik kaynak kodu tarama ve statik güvenlik testi uygulayın.
- Modellerin kendi kodlarını hatalar için kontrol ettiği ve referanslı paketlerin meşruiyetini analiz ettiği ek AI doğrulama döngülerini dahil edin. Bu, Halüsinasyonları Deepseek için% 2,4’e ve testlerde Codellama için% 9,3’e düşürürken, bu oranlar özel güven için çok yüksek kalmıştır.
- AI asistanlarının kritik bileşenleri kodlamasını yasaklayın ve AI tarafından oluşturulan kod için özel kontrol listeleriyle resmi kod inceleme süreçleri oluşturun.
- Mevcut paketleri önceden onaylanmış iç depolarındakilerle ideal olarak sınırlandıran, güvenilir bağımlılıkların kısıtlı bir listesini oluşturun ve uygulayın.
- Geliştiricileri özellikle farkındalığı ve uyanıklığı artırmak için geliştirme bağlamında AI güvenlik riskleri konusunda eğitin.
Bu önlemler, kuruluşlar AI asistanlarını yazılım geliştirme iş akışlarına entegre ettikçe ve potansiyel olarak kendilerini ortaya çıkan bu tehdit vektörüne maruz bıraktıkça giderek daha kritik hale geliyor.
SOC ekibini kurmak mı? -SOC ekibiniz için ücretsiz Ultimate SIEM Fiyatlandırma Kılavuzu’nu (PDF) indirin -> Ücretsiz İndir