Yeni ‘Kurallar Dosyası Arka Kapı’ Saldırısı, bilgisayar korsanlarının AI kod editörleri aracılığıyla kötü amaçlı kod enjekte etmesine izin veriyor


18 Mart 2025Ravie LakshmananAI Güvenlik / Yazılım Güvenliği

AI kod editörleri aracılığıyla kötü amaçlı kod

Siber güvenlik araştırmacıları, Github Copilot ve imleç gibi yapay zeka (AI) ile çalışan kod editörlerini etkileyen yeni bir tedarik zinciri saldırısı vektörünün Dubled Dosya Dosyası Dosya Arka Kapağı’nın ayrıntılarını açıkladılar ve bu da kötü amaçlı kod enjekte etmelerine neden oldu.

Pillar Security’nin kurucu ortağı ve CTO Ziv Karliner, hacker haberleriyle paylaşılan teknik raporda, “Bu teknik, bilgisayar korsanlarının imleç ve github copilot tarafından kullanılan görünüşte masum yapılandırma dosyalarına gizli kötü niyetli talimatlar enjekte ederek, AI tarafından üretilen kodu sessizce tehlikeye atmalarını sağlıyor.” Dedi.

Siber güvenlik

“Tehdit aktörleri, tipik kod incelemelerini atlayan kötü amaçlı kod eklemek için AI’yı manipüle edebilir.”

Saldırı vektörü, kötü amaçlı kodun projeler arasında sessizce yayılmasına izin vererek bir tedarik zinciri riski oluşturması nedeniyle dikkat çekicidir.

AI kod editörleri aracılığıyla kötü amaçlı kod

Saldırının özü, AI ajanları tarafından davranışlarına rehberlik etmek için kullanılan kural dosyalarına bağlı olarak kullanıcıların en iyi kodlama uygulamalarını ve proje mimarisini tanımlamalarına yardımcı olur.

Özellikle, görünüşte iyi huylu kural dosyalarına özenle hazırlanmış istemleri yerleştirmeyi ve AI aracının güvenlik açıkları veya arka kapılar içeren kod oluşturmasına neden olur. Başka bir deyişle, zehirli kurallar AI’yı hain kod üretmeye itiyor.

Bu, kötü niyetli talimatları gizlemek için sıfır genişlikte birleştiriciler, çift yönlü metin işaretleyicileri ve diğer görünmez karakterler kullanılarak ve AI’nın modeli etik ve güvenlik kısıtlamalarını geçersiz kılan semantik kalıplar aracılığıyla savunmasız kodlar oluşturmak için doğal dili yorumlama yeteneğinden yararlanarak gerçekleştirilebilir.

Siber güvenlik

Şubat ve Mart 2024’teki sorumlu açıklamanın ardından, hem imleci hem de Gihub, kullanıcıların araçlar tarafından oluşturulan önerileri incelemek ve kabul etmekten sorumlu olduğunu belirtmiştir.

Karliner, “‘Kurallar Dosyası Backdoor’, AI’nın kendisini bir saldırı vektörü olarak silahlandırarak önemli bir riski temsil ederek, geliştiricinin en güvenilir asistanını etkili bir şekilde farkında olmayan bir suç ortağına dönüştürerek, potansiyel olarak ödün verilen yazılım yoluyla milyonlarca son kullanıcıyı etkiledi.”

“Zehirli bir kural dosyası bir proje deposuna dahil edildikten sonra, ekip üyeleri tarafından gelecekteki tüm kod üretim oturumlarını etkiler. Ayrıca, kötü niyetli talimatlar genellikle proje çatalından kurtulur ve aşağı akış bağımlılıklarını ve son kullanıcıları etkileyebilecek tedarik zinciri saldırıları için bir vektör oluşturur.”

Bu makaleyi ilginç mi buldunuz? Bizi takip edin Twitter ve daha fazla özel içeriği okumak için LinkedIn.





Source link