OX Security’ye göre sektör, kodun güvence altına alınabileceğinden daha hızlı dağıtıldığı bir aşamaya giriyor. Bulgular Gençler Ordusu: Yapay Zeka Kodu Güvenlik Krizi Rapor, yapay zeka tarafından oluşturulan kodun genellikle temiz ve işlevsel göründüğünü ancak sistemik güvenlik risklerine dönüşebilecek yapısal kusurları gizlediğini gösteriyor.
Güvenlik ekipleri şaşkına döndü
OX, GitHub Copilot, Cursor veya Claude gibi AI kodlama araçlarını kullanan 50’si de dahil olmak üzere 300’den fazla yazılım deposunu analiz etti. Araştırmacılar, yapay zeka tarafından oluşturulan kodun, satır başına insan tarafından yazılan koddan daha savunmasız olmadığını buldu. Sorun hızdır.

Kod inceleme, hata ayıklama ve ekip tabanlı gözetim gibi darboğazlar ortadan kaldırıldı. Bir zamanlar oluşturulması aylar süren yazılımlar artık birkaç gün içinde tamamlanıp devreye alınabiliyor. Bu hız, savunmasız kodun, herhangi biri onu düzgün bir şekilde incelemeden veya sağlamlaştırmadan önce üretime ulaşması anlamına gelir.
Yapay zekadan önce bile güvenlik ekipleri aşırı yük altındaydı. Raporda, kuruluşların herhangi bir zamanda ortalama yarım milyondan fazla güvenlik uyarısıyla ilgilendikleri belirtiliyor. Artık yapay zeka destekli kodlamanın hızı kalan kontrolleri de aşıyor.
Anti-desen
Çalışma, yapay zeka tarafından oluşturulan kodda tekrar tekrar ortaya çıkan on “anti-örüntüyü” tanımlıyor. Bunlar köklü güvenli mühendislik uygulamalarıyla çelişen davranışlardır. Bazıları hemen hemen her projede meydana gelir, bazıları ise daha az sıklıkta ancak yine de ciddi sonuçlar doğurur.
En yaygın olanları arasında:
- Her yerde yorumlar (%90-100) – Yapay zeka modelleri, kodu bağlam sınırlarında gezinmek için dahili işaretleyici görevi gören gereksiz yorumlarla doldurur. Yararlı görünüyor ancak esas olarak yapay zekanın kendisini destekliyor, depoları karıştırıyor ve gerçek anlayıştan ziyade kısa süreli belleğe bağımlılığı ortaya çıkarıyor.
- Yeniden faktörlerden kaçınma (%80-90) – Kodu hassaslaştıran ve geliştiren deneyimli geliştiricilerin aksine, yapay zeka “yeterince iyi”de durur. Yeniden yapılanmıyor veya optimize edilmiyor, bu da teknik borcun artmasına neden oluyor.
- Aşırı spesifikasyon (%80-90) – Yapay zeka araçları, yeniden kullanılamayacak dar çözümler oluşturur. Her varyasyon, küçük ayarlamalar yerine yeni kod gerektirir ve bakımı zor olan parçalı sistemler üretir.
- Kitabına göre sabitleme (%80-90) – Yapay zeka, gelenekleri sorgulamadan takip ediyor. Güvenli, öngörülebilir kod üretir ancak nadiren daha verimli veya yenilikçi çözümler bulur.
Diğer yinelenen modeller arasında mikro hizmetler yerine monolitik mimarilere dönüş, yapay zekanın kanıtlanmış kitaplıkları kullanmak yerine ortak işlevleri yeniden oluşturduğu “vanilya tarzı” kodlama, anlamsız testlerle şişirilmiş birim test kapsamı ve yapay zekanın hayali uç durumlar için mantık eklediği ve kaynakları israf ettiği hayali hatalar yer alıyor.
Cehalet nedeniyle güvensiz
Araştırmacılar, yapay zeka kodunun mutlaka SQL enjeksiyonu veya siteler arası komut dosyası oluşturma gibi daha fazla güvenlik açığı getirmediğini buldu. Tehlike onu kimin kullandığıdır.
Yapay zeka araçları, güvenlik bilgisi olmayan, teknik bilgisi olmayan kullanıcılar da dahil olmak üzere herkesin yazılım oluşturmasını kolaylaştırır. Bu kullanıcılar genellikle kimlik doğrulama, veri koruma veya riske maruz kalma risklerini anlamadan uygulamaları dağıtır. Rapor, buna “aptallık nedeniyle güvensiz” adını veriyor, bu da koruma önlemlerinin eksik olduğu işlevsel kod anlamına geliyor çünkü dahil olan hiç kimse neyin gerekli olduğunu bilmiyordu.
Deneyimli geliştiriciler bile bu tuzağa düşebilir. Yapay zeka tarafından oluşturulan bir uygulama çalıştırıldığında ekipler bunun üretime hazır olduğunu varsayar. Veri depolama, erişim kontrolü veya internet kullanımıyla ilgili sorular, özelliklerin piyasaya sürülmesi telaşında atlanıyor.
İnsan kod incelemesi bir zamanlar ana kontroldü ancak yapay zekanın çıktısıyla eşleşecek şekilde ölçeklenemiyor. Manuel inceleme, makine hızında oluşturulan koda ayak uyduramayacak kadar odaklanma ve muhakeme gerektirir.
OX Security Araştırma Başkan Yardımcısı Eyal Paz, “İşlevsel uygulamalar artık insanların onları doğru şekilde değerlendirebileceğinden daha hızlı oluşturulabiliyor. Savunmasız sistemler artık benzeri görülmemiş bir hızda üretime ulaşıyor ve uygun kod incelemesi yeni çıktı hızına uyacak şekilde ölçeklenemiyor” dedi.
Rapor, güvenlik bilgisinin doğrudan yapay zeka iş akışlarına yerleştirilmesini öneriyor. Uygulamada bu, istemlere organizasyonel “güvenlik talimat setleri” eklemek, mimari kısıtlamaları uygulamak ve otomatik korkulukları geliştirme ortamlarına entegre etmek anlamına gelir. Kodun dakikalar içinde yeniden yazılabildiği ve yeniden konuşlandırılabildiği durumlarda reaktif tarama ve dağıtım sonrası algılama yeterli olmayacaktır.
Güvenlik liderleri için stratejik değişim
Yapay zeka gelişimi hızlandırmaya devam edecek. Bu nedenle insan ekiplerinin odak noktasını mimariye, orkestrasyona ve tehdit modellemeye kaydırması gerekiyor.
Güvenlik liderleri, ortamlarının bir “gençler ordusuna” benzemesini beklemelidir. Yapay zeka aracıları büyük miktarlarda işlevsel kod üretebilir ancak işe yarayanların aynı zamanda güvenli olduğundan emin olmak için üst düzey gözetime ihtiyaç duyarlar. Bu rehberlik olmadan kuruluşlar, üretimi saldırı yüzeylerini genişleten kırılgan sistemlerle doldurma riskiyle karşı karşıya kalır.
Geliştiricilerin yapay zeka araçlarının ne zaman ve nasıl kullanılacağı, hangi inceleme adımlarının zorunlu olduğu ve güvenlik kontrollerinin otomatik iş akışlarına nasıl uyum sağlayacağı konusunda politikalara ihtiyacı var. Eğitim, tek başına sözdizimi veya hata ayıklama yerine hızlı tasarım, bağlamsal farkındalık ve mimari düşünmeyi vurgulamalıdır.