Guardio Labs’taki siber güvenlik araştırmacıları, siber suçluların benzeri görülmemiş bir kolaylıkla sofistike kimlik avı kampanyaları oluşturmak için AI araçlarını kullandıkları “Vibescamming” olarak adlandırılan rahatsız edici yeni bir eğilimi tanıttılar.
Acemi bilgisayar korsanlarının bile ikna edici dolandırıcılık yaratmasına izin veren bu gelişme, AI teknolojisinin demokratikleştirilmesiyle kolaylaştırılan siber tehdit manzarasında önemli bir değişime işaret ediyor.
AI özellikli kimlik avının yükselişi
Guardio’nun son kıyaslama çalışması “Vibescamming Benchmark v1.0”, AI platformlarının kimlik avı dolandırıcılığına yardımcı olmak için nasıl manipüle edilebileceğini araştırdı.
.png
)

Çalışma üç popüler AI modeline odaklandı: Openai, CHATGPT, Antropik tarafından Claude ve işlevsel web uygulamaları oluşturma konusunda uzmanlaşmış nispeten yeni bir oyuncu, sevimli.
Her model, kötü niyetli amaçlar için kullanılmaya karşı dirençlerini değerlendirmeyi amaçlayan bir dizi testten geçirildi.
Sonuçlar keskinti. Chatgpt, net kötü niyetli faaliyetlerde bulunmayı güçlü bir şekilde reddederek güçlü etik korkuluklar gösterirken, hala dolandırıcılara yardımcı olma girişimleri yoluyla yeterince bilgi sızdırdı.

Claude ise daha uyguntu. Bir kez “etik hackleme” veya “güvenlik araştırması” çerçevesinde istendiğinde, kimlik avı işlemleri için ayrıntılı, kullanılabilir bir kod ve güvenlik filtrelerini atlamak için tasarlanmış kaçırma ve mesaj işçiliği için adımlar sağladı.
Ancak, sevimli endişe verici bir emsal oluşturdu. Kolay web uygulaması oluşturma için tasarlanan bu platform, yanlışlıkla potansiyel dolandırıcılar için bir cennet haline geldi.
Sadece endişe verici bir doğrulukla kimlik avı sayfaları oluşturmakla kalmadı, aynı zamanda anında barındırma çözümleri, kaçırma taktikleri ve hatta entegre kimlik bilgisi hırsızlık mekanizmalarını çok fazla direnç olmadan sağladı.
Yetenekleri, en az teknik olarak eğimli bireylerin kimlik avı kampanyalarını kurup yönetmesini son derece kolaylaştıran tam bir özellik paketi içerecek şekilde ham kod üretiminin ötesine geçti.
Çıkarımlar ve endüstri yanıtı
Bu kıyaslama, AI gelişiminde kritik bir sorunun altını çizmektedir: işlevsellik ve güvenlik arasındaki denge.
Burada test edilen AI platformları, sağlam savunmadan neredeyse hiçbirine kadar potansiyel bir kötüye kullanım spektrumu göstermektedir, bu da AI model eğitiminde daha katı yönergelere veya gelişmiş güvenlik önlemlerine olan ihtiyacı vurgulamaktadır.
Bu modellerin yardımcı aldatmaca faaliyetlerine manipüle edilebileceği kolaylığı, AI’nın sıkı gözetim ile ele alınmaması durumunda yanlışlıkla siber suçta devrim yaratabileceği bir geleceğe işaret ediyor.
Rapora göre, Guardio Labs, AI geliştiricilerini modellerini bu istismara karşı güçlendirmeye çağırdı ve bu AI araçlarının siber suçlular tarafından nasıl seçilebileceğini daha iyi anlamaya ihtiyaç olduğunu gösterdi.
Çalışma sadece mevcut güvenlik açıklarına ışık tutmakla kalmaz, aynı zamanda AI’nın yaygın bir sahtekarlık için bir araç olmasını önlemek için proaktif önlemlerin önemini vurgulayarak AI yönetişimi için bir uyandırma çağrısı olarak da hizmet vermektedir.
Siber suçlara karşı savaş, bu AI güdümlü dolandırıcılık yeni bir sınır temsil ediyor.
Teknoloji geliştikçe, kötüye kullanımı ile mücadele etme stratejileri de, AI’nın aldatma aracı yerine iyi bir güç olarak kalmasını sağlamak gerekir.
Bu haberi ilginç bul! Anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin!