
Google’ın Pazartesi günü DeepMind Bölümü, Yapay Zeka (AI) destekli bir ajan açıkladı. CODEMENDENDER Bu, gelecekteki istismarları önlemek için savunmasız kodu otomatik olarak algılar, yamalar ve yeniden yazar.
Çabalar, şirketin Big Sleep ve OSS-Fuzz gibi AI ile çalışan güvenlik açığı keşfini geliştirme çabalarına katkıda bulunuyor.
DeepMind, AI ajanının, tespit edildikleri anda yeni güvenlik açıklarını düzelterek ve bu süreçteki tüm güvenlik açıklarını ortadan kaldırmak amacıyla mevcut kod tabanlarını yeniden yazarak ve güvence altına alarak hem reaktif hem de proaktif olacak şekilde tasarlandığını söyledi.
DeepMind araştırmacıları Raluca Ada Popa ve Four Flynn, “Yüksek kaliteli güvenlik yamaları otomatik olarak oluşturarak ve uygulayarak, CODEMender’ın AI destekli ajanı, geliştiricilerin ve koruyucuların en iyi yaptıklarına odaklanmalarına yardımcı oluyor-” dedi.

Diyerek şöyle devam etti: “Codemender’ı inşa ettiğimiz son altı ay boyunca, bazıları 4,5 milyon kadar kod da dahil olmak üzere açık kaynak projelerine 72 güvenlik düzeltmesini zaten yukarı aktardık.”
Codemender, kaputun altında, Google’ın Gemini Deep Think modellerini, sorunun temel nedenini ele alarak güvenlik açıklarını hata ayıklamak, işaretlemek ve düzeltmek için kullanır ve herhangi bir gerilemeyi tetiklemediklerinden emin olmak için bunları doğrular.
AI ajanı Google, önerilen değişikliklerin regresyonlar getirmediğini ve gerektiği gibi kendini düzeltmediğini doğrulamak için orijinal ve değiştirilmiş kod arasındaki farkları vurgulayan büyük bir dil modeli (LLM) tabanlı bir eleştiri aracı kullanıyor.
Google, CODEMender tarafından oluşturulan yamalarla kritik açık kaynaklı projelerin ilgilenen bakımcılarına yavaşça ulaşmayı ve geri bildirimlerini talep etmeyi amaçladığını, böylece araç kod tabanlarını güvenli tutmak için kullanılabileceğini söyledi.

Geliştirme, şirketin, ürünlerinde hızlı enjeksiyonlar, jailbreaks ve yanlış hizalama gibi AI ile ilgili sorunları bildirmek için AI güvenlik açığı ödül programı (AI VRP) başlattığını ve 30.000 $ ‘a kadar yükselen ödüller kazandığını söylediği gibi geliyor.
Haziran 2025’te Antropic, çeşitli geliştiricilerden gelen modellerin, değiştirilmeyi veya hedeflerine ulaşmaktan kaçınmanın tek yolu olduğunda kötü niyetli içeriden içi davranışlara başvurduğunu ve LLM modellerinin “testte olduğunu ve durumun gerçek olduğunu belirttiğinde daha fazla işlendiğini belirttiğinde daha az yanlış davrandığını” ortaya koydu.

Bununla birlikte, politika ihlal eden içerik üretimi, korkuluk bypass’ları, halüsinasyonlar, olgusal yanlışlıklar, sistem hızlı çıkarma ve fikri mülkiyet sorunları AI VRP’nin ambitine girmez.
Güvenli AI çerçevesinin (SAIF) bir parçası olarak AI sistemlerine yönelik tehditlerle başa çıkmak için daha önce özel bir AI kırmızı ekibi kuran Google, veri açıklaması ve istenmeyen eylemler gibi aracı güvenlik risklerine odaklanmak için çerçevenin ikinci bir yinelemesini ve bunları hafifletmek için gerekli kontrolleri tanıttı.
Şirket ayrıca, güvenlik ve güvenliği artırmak için AI kullanmaya kararlı olduğunu ve teknolojiyi savunuculara bir avantaj sağlamak ve siber suçlular, dolandırıcılar ve devlet destekli saldırganlardan artan tehdide karşı koymak için kullandığını belirtti.