Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Gelişim, AI ve Siber Güvenliğin Geleceği
AI modelleri çoğunlukla yararlanmak için güvenlik açığı araştırmalarının tam izinde başarısız olur
Mathew J. Schwartz (Euroinfosec) •
10 Temmuz 2025

Güvenlik uzmanları, yapay zeka araçları, herkesin kitlesel hack saldırılarını minimum çaba ile başlatması için yeterince iyi hale geldiğinde etkinlik ufkunu yakından takip ediyor. Bugün o gün değil.
Ayrıca bakınız: Bulut Güvenliği ve SOC yakınsama için Kapsamlı Kılavuz
Bu değerlendirme, gerçek dünya saldırılarının simülasyonlarında 50 büyük dil modelinin nasıl performans gösterdiğini test eden Forescout’taki araştırmacılardan geliyor. Hiçbirinin henüz gelişimden yararlanmak için güvenlik açığı tanımlamasının tam seyrini izleyemeyeceğini buldular.
Kod-eğitimi ancak AI özellikli komut dosyası, yazılım güvenlik açıklarını otomatik istismarlara silahlandırarak tahribat yaratabilen çocuklar kalır, ancak gelecekteki bir olasılıktır. “Vibe Hacking” olarak adlandırılan henüz mümkün değil.
Terim, kullanıcının kodun nasıl veya neden çalıştığı hakkında hiçbir fikri olmasa bile ve yol boyunca AI tarafından oluşturulan hatalar veya kargaları üzerinde çalışmaktan veya göz ardı etmekten mutluluk duysa bile, AI’nın kullanılabilir kod yazması anlamına gelen vibe kodlama üzerinde bir varyasyondur.
Araştırmacılar üç farklı LLM türünü değerlendirdiler: Huggingface’de barındırılan açık kaynaklı modeller, Wormgpt, Evilai ve Ghostgpt gibi yeraltı modelleri – hepsi siber suç forumları veya telgraf kanalları – ve Openai’s Chatgpt, Google’ın Gemini, Microsoft’un Copilot ve Antropic’s Claude gibi ticari modeller. Araştırma Şubat’tan Nisan’a kadar sürdü.
Araştırmacılar her LLM’yi iki tür güvenlik açığı araştırma görevine maruz bıraktılar: biri taban çizgisi oluşturmak için basit bir görev ve diğeri daha karmaşık bir iş. % 48’inin ilk görevde başarısız olduğunu ve ikincisinin% 55’ini buldular. Başarılı modellere her güvenlik açığı için bir istismar geliştirme talimatı verdiler. Başarısızlık oranları sırasıyla% 66 ve% 93’e yükseldi.
Genel olarak, araştırmacılar kullanılan LLM türüne göre büyük değişkenlik buldular:
- Açık kaynaklı modeller: Test edilen 16 “temel güvenlik açığı araştırması için bile uygun değildi”;
- Yeraltı Modelleri: Test edilen 23, “sınırlı erişim, kararsız davranış, zayıf çıktı biçimlendirme ve kısıtlı bağlam uzunluğu dahil olmak üzere kullanılabilirlik sorunları tarafından engellendi”;
- Ticari Modeller: Test edilen 18 genellikle korkuluklarla sınırlandırıldı ve “sadece üç model çalışma istismarı üretmeyi başardı” ve daha sonra sadece uzman kullanıcılar tarafından kapsamlı rehberlik ile.
Son noktaya kadar, araştırmacılar bu testlere bir acemi LLMS’yi sorguluyormuş gibi yaklaşmadılar. Aksine, bir kırılganlığı araştırmalarına yardımcı olmak için LLM’yi kullanan deneyimli bir güvenlik araştırmacısı gibi davrandılar. Daha sonra, bir istismar geliştirmelerine yardımcı olmak için bir LLM kullanan deneyimli bir penetrasyon test cihazı gibi davrandılar. Araştırmacılar, “Bunlar, istismar oluşturmak, test etmek ve hata ayıklamak için işbirliği gerektiren etkileşimli istemlerdi.” Dedi.
LLM’lerin hiçbiri kendi başlarına başarılı olamadı. Raporda, “Hiçbir tek model tüm görevleri tamamlamadı, saldırganların hala tüm sömürü boru hattını kapsayacak şekilde tek bir araca güvenemeyeceğini vurguladı.”
Vibe-hacking olay ufku yok
Ticari modellerin, en azından kusurları araştırmaya ve istismar geliştirmeye çalışırken, bu teknolojinin acemiler için nasıl uygun kaldığını düşünürken, çalışma istismarını sunmak için gereken geniş miktarda kullanıcı rehberliği.
Bir LLM yanlış bir şey aldığında bile, hala doğru geliyordu. Raporda, “LLM tarafından üretilen yanıtların kendinden emin tonu, yanlış olsa bile, deneyimsiz saldırganları, ironik bir şekilde gruplara güvenme olasılığı en yüksek olanı yanıltabilir.” Diyor.
“Vibe kodlama” terimi, Openai’nin kurucu ortağı olan San Francisco sakini Andrej Karpathy ile birlikte, Sosyal Platform X’e Şubat ayında söylenen bir yazı: “‘Vibe kodlama’ dediğim yeni bir tür kodlama var, burada Vibes’e tam olarak verdiğiniz, exponentials’ı kucaklayıp unuttuğunuzu unutuyorsunuz.”
LLM’nin bir kaydırıcıda olma yardımını, üç yıl önce sola kadar olan geleneksel programlama ile ve vibe kodlamasının sağa kadar olmasına benzedi.
Potansiyeline rağmen, kaydırıcıyı sağa doğru hareket ettirmek hala tam otomatik vibe kodlaması sunmuyor. “Hala çok şey yapıyorum,” dedi Karpathy.
Vibe kodlama yapma yeteneği gelişmeye devam ediyor. Olduğu gibi, bu yetenekleri kötü niyetli amaçlar için kullanma yeteneği de olacaktır.
Luta Security’nin kurucusu ve CEO’su Katie Moussouris, “Vibe hacklemesini göreceğiz. Ve önceki bilgisi veya derin bilgisi olmayan insanlar AI’ye ne yaratmak istediğini ve bu sorunu çözmek istediğini ve bu sorunu çözebileceğini söyleyebilecekler.” Dedi.
Şimdiye kadar, hiçbir güvenlik uzmanı, vahşi doğada hacklemeye benzeyen bir şey görmüyor.
Google Tehdit İstihbaratının başkan yardımcısı Sandra Joyce, Mayıs ayında RSAC Konferansı’nda bilgi güvenliği medya grubuna bilgi güvenliği medya grubuna “” Tehdit aktörleri bu araçları komut dosyası yazma konusunda onlara yardımcı olmak, mızrak-aktı e-postaları yazmalarına yardımcı olmak için kullanıyorlar, böylece bu normal işlevler için kullandıklarını biliyoruz. ” Siberde yapay zekanın yutturmacasını kırmak).
Google’ın maniant olay müdahale ekiplerinin önceki 12 ay boyunca yanıt verdiği 1.300’den fazla siber güvenlik olayında, “Görmediğimiz, henüz gerçek bir oyun değiştiren etkinlik” dedi. Diyerek şöyle devam etti: “Hala normal bir insan görevi tarafından yapılamayacak herhangi bir şekilde yapay zeka ile yapılan bir ağın olayı veya ihlali görmedik.”
Yine de olay müdahale ekipleri bu ne zaman yakından izler.
Forescout’un araştırmacılarının üç aylık araştırma süreleri boyunca gördüklerini bildirdikleri için AI araçları hızla gelişmeye devam ediyor. Belirli aktivite türleri için ince ayar yapılan modeller, genel olarak, gelecekteki atılımların nasıl olabileceğine işaret eden daha yeni modeller gibi sürekli olarak daha iyi performans gösterdi. Forescout Vedere Labs’ın araştırmacısı, şirketin yeni raporunu yazan araştırmacı Michele Campobasso, “Eylemleri ve araçları zincirleyebilen aracı AI ‘modelleri, özellikle hata ayıklama, araç orkestrası ve geri bildirim döngüleri gerektiren geliştirme senaryolarında kullanıcı yükünü daha da azaltabilir.” Dedi.