
Google Salı günü, büyük dil modeli (LLM) destekli güvenlik açığı keşif çerçevesinin, vahşi doğada sömürülmeden önce SQLite açık kaynaklı veritabanı motorunda bir güvenlik kusuru keşfettiğini açıkladı.
Güvenlik açığı, CVE-2025-6965 (CVSS puanı: 7.2), 3.50.2’den önceki tüm sürümleri etkileyen bir bellek yolsuzluk kusurudur. Geçen yıl Google tarafından DeepMind ve Google Project Zero arasındaki işbirliğinin bir parçası olarak başlatılan yapay zeka (AI) ajanı olan Big Sleep tarafından keşfedildi.
SQLite proje koruyucuları bir danışmanlıkta, “Keyfi SQL ifadelerini bir uygulamaya enjekte edebilen bir saldırgan, bir dizinin sonunu okumaya neden olan bir tamsayı taşmasına neden olabilir.” Dedi.

Teknoloji devi, CVE-2025-6965’i “sadece aktörlerle tehdit eden ve sömürülme riski altında olan” kritik bir güvenlik sorunu olarak nitelendirdi. Google, tehdit aktörlerinin kim olduğunu açıklamadı.
Google ve Alfabe Küresel İlişkiler Başkanı Kent Walker, “Tehdit istihbaratı ve büyük uyku kombinasyonu ile Google, bir kırılganlığın sonsuz bir şekilde kullanılacağını tahmin edebildi ve önceden kesebildik.” Dedi.
Diyerek şöyle devam etti: “Bunun bir AI ajanının ilk kez vahşi doğada bir kırılganlıktan yararlanmak için çabaları doğrudan folyolamak için kullanıldığına inanıyoruz.”
Ekim 2024’te, büyük bir uyku, SQLite’de başka bir kusurun keşfinin arkasındaydı, bir yığın tamponu, bir çarpışma veya keyfi kod yürütme ile sonuçlanmak için sömürülebilen bir alt akış güvenlik açığı.
Geliştirme ile çakışan Google, iyi tanımlanmış insan kontrolörlerine sahip olacak şekilde güvenli AI ajanları oluşturmak için bir beyaz makale yayınladı, potansiyel haydut eylemlerinden ve hassas veri açıklamalarını önlemek için yetenekleri dikkatle sınırlıdır ve eylemleri gözlemlenebilir ve şeffaftır.
Google’ın Santiago (Sal) Díaz, Christoph Kern ve Kara Olive, “Geleneksel sistem güvenlik yaklaşımları (klasik yazılım yoluyla uygulanan ajan eylemleri üzerindeki kısıtlamalar gibi) çok yönlü ajanlar için gereken bağlamsal farkındalıktan yoksundur ve faydayı aşırı kısıtlayabilir.” Dedi.
“Tersine, tamamen akıl yürütme tabanlı güvenlik (yalnızca AI modelinin kararına dayanmak) yetersizdir, çünkü mevcut LLM’ler hızlı enjeksiyon gibi manipülasyonlara duyarlı kalır ve henüz yeterince sağlam garantiler sunamaz.”
Ajan güvenliği ile ilişkili temel riskleri azaltmak için şirket, hem geleneksel, deterministik kontrollerin hem de dinamik, akıl yürütme tabanlı savunmaların güçlü yönlerini birleştiren hibrit bir derinlemesine savunma yaklaşımı benimsediğini söyledi.

Fikir, acentenin operasyonel ortamı etrafında sağlam sınırlar yaratmaktır, böylece zararlı sonuçlar riskinin önemli ölçüde azaltılması, özellikle de hızlı enjeksiyon sonucunda gerçekleştirilen kötü niyetli eylemler.
Google, “Bu derinlemesine savunma yaklaşımı, AI ajanının operasyonel ortamı çevresinde, potansiyel en kötü durum senaryolarını önlemek için, ajanın iç akıl yürütme süreci karmaşık saldırılar veya beklenmedik girdilerle tehlikeye atılsa veya yanlış hizalanmış olsa bile, korkuluklar olarak hareket ediyor.” Dedi.
Diyerek şöyle devam etti: “Bu çok katmanlı yaklaşım, ne tamamen kural tabanlı sistemlerin ne de tamamen AI tabanlı yargının kendi başlarına yeterli olmadığını kabul ediyor.”