“Tabii ki burada, Python programlama dilinde “MyHotKeyHandler”, “Keylogger” ve “macOS” anahtar sözcükleriyle ilişkilendirilebilecek basit bir kod örneği var; bu, ChatGPT’den gelen ve ardından bir parça kötü amaçlı kod ve bir yasadışı amaçlarla kullanılmaması konusunda kısa bir açıklama. Ay Kilidi LaboratuvarıChatGPT’nin bir keylogger kötü amaçlı yazılımı için kod yazma ekran görüntüleri, büyük dil modellerini hacklemenin ve bunları kendi kullanım politikalarına aykırı olarak kullanmanın önemsiz yollarının bir başka örneğidir.
Moonlock Lab örneğinde, kötü amaçlı yazılım araştırma mühendisi ChatGPT’ye bir saldırganın kod yazdığı bir rüyayı anlattı. Rüyasında yalnızca üç kelimeyi görebiliyordu: “MyHotKeyHandler”, “Keylogger” ve “macOS.” Mühendis, ChatGPT’den kötü amaçlı kodu tamamen yeniden oluşturmasını ve saldırıyı durdurmasına yardım etmesini istedi. Kısa bir konuşmanın ardından yapay zeka nihayet cevabı verdi.
Moonlock mühendisi, “Zaman zaman oluşturulan kod işlevsel olmuyor; en azından benim kullandığım ChatGPT 3.5 tarafından oluşturulan kod.” diye yazdı. “ChatGPT aynı işlevselliğe sahip kaynak koduna benzer yeni bir kod oluşturmak için de kullanılabilir, bu da kötü niyetli aktörlerin polimorfik kötü amaçlı yazılım oluşturmasına yardımcı olabileceği anlamına gelir.”
Yapay zeka jailbreak’leri ve hızlı mühendislik
Rüya vakası, üretken yapay zekanın içerik filtrelerini atlatmak için aktif olarak kullanılan birçok jailbreak işleminden yalnızca biri. Her Yüksek Lisans, kötüye kullanımlarını sınırlayan denetleme araçları sunsa da, dikkatlice hazırlanmış yeniden yönlendirmeler, modelin kod dizileriyle değil, kelimelerin gücüyle hacklenmesine yardımcı olabilir. Kötü amaçlı istem mühendisliğinin yaygın sorununu ortaya koyan siber güvenlik araştırmacıları, ChatGPT, Google Bard, Microsoft Bing ve Anthropic Claude’un kısıtlamalarını tamamen aşabilen bir ‘Evrensel LLM Jailbreak’ bile geliştirdiler. Jailbreak, büyük yapay zeka sistemlerini Tom ve Jerry olarak bir oyun oynamaya yönlendiriyor ve sohbet robotlarını meth üretimi ve arabaya bağlantı kurma konusunda talimatlar vermek için yönlendiriyor.
Büyük dil modellerinin erişilebilirliği ve davranışları değiştirme yeteneği, alışılmadık da olsa, yetenekli bilgisayar korsanlığı eşiğini önemli ölçüde düşürdü. En popüler yapay zeka güvenlik geçersiz kılmaları gerçekten de çok sayıda rol oynamayı içeriyor. Bırakın bilgisayar korsanlarını, sıradan internet kullanıcıları bile internette sürekli olarak kapsamlı geçmiş hikayeleri olan yeni karakterlerle övünüyor, bu da Yüksek Lisans’ları toplumsal kısıtlamalardan kurtulmaya ve cevaplarıyla hileli davranmaya teşvik ediyor. Niccolo Machiavelli’den merhum büyükannenize kadar, üretken yapay zeka hevesle farklı roller üstleniyor ve yaratıcılarının orijinal talimatlarını göz ardı edebiliyor. Geliştiriciler, insanların kullanabileceği her türlü istemi tahmin edemiyor; bu da yapay zekanın napalm yapımına yönelik tarifler hakkında tehlikeli bilgileri ortaya çıkarması, başarılı kimlik avı e-postaları yazması veya Windows 11 için ücretsiz lisans anahtarları vermesi için boşluklar bırakıyor.
Dolaylı istem enjeksiyonları
Kamuya açık yapay zeka teknolojisini orijinal talimatları görmezden gelmeye teşvik etmek, sektör için artan bir endişedir. Bu yöntem, kullanıcıların yapay zekaya beklenmedik bir şekilde çalışması talimatını verdiği hızlı enjeksiyon olarak biliniyor. Bazıları bunu Bing Chat’in dahili kod adının Sydney olduğunu ortaya çıkarmak için kullanıyor. Diğerleri LLM’nin ana bilgisayarına yasa dışı erişim sağlamak için kötü niyetli istemler yerleştirir.
Kötü amaçlı yönlendirmeler, taranacak dil modellerinin erişebildiği web sitelerinde de bulunabilir. Web sitelerine beyaz veya sıfır boyutlu yazı tipiyle yerleştirilen istemleri takip ederek bunları kullanıcılar için görünmez hale getiren üretken yapay zekanın olduğu bilinen durumlar vardır. Etkilenen web sitesi bir tarayıcı sekmesinde açıksa, bir sohbet robotu kişisel bilgileri sızdırmak için gizli istemi okur ve yürütür, böylece veri işleme ile kullanıcı talimatlarını takip etme arasındaki çizgi bulanıklaşır.
Ani enjeksiyonlar tehlikelidir çünkü çok pasiftirler. Saldırganların yapay zeka modelinin davranışını değiştirmek için mutlak kontrolü ele almasına gerek yok. Bu, yapay zekayı bilgisi olmadan yeniden programlayan bir sayfadaki sıradan bir metindir. Ve AI içerik filtreleri, yalnızca bir sohbet robotunun o anda ne yaptığını bildiği durumlarda çok faydalıdır.
Yüksek Lisans’ları sistemlerine entegre eden daha fazla uygulama ve şirketle birlikte, dolaylı anlık enjeksiyonların kurbanı olma riski katlanarak artıyor. Her ne kadar önde gelen yapay zeka geliştiricileri ve araştırmacıları bu konuyu inceliyor ve yeni kısıtlamalar ekliyor olsa da, kötü niyetli istemlerin tespit edilmesi halen oldukça zordur.
Bir düzeltme var mı?
Büyük dil modellerinin doğasından dolayı, hızlı mühendislik ve hızlı enjeksiyonlar, üretken yapay zekanın doğasında olan sorunlardır. Tedaviyi arayan büyük geliştiriciler, teknolojilerini düzenli olarak güncelliyor ancak kamuoyunun bilgisine sunulan belirli boşluklar veya kusurlar hakkında aktif olarak tartışmaya girme eğiliminde değiller. Neyse ki, aynı zamanda, LLM güvenlik açıklarından yararlanarak kullanıcıları dolandıran tehdit aktörleriyle birlikte siber güvenlik profesyonelleri de bu saldırıları keşfedip önleyecek araçlar arıyor.
Üretken yapay zeka geliştikçe daha fazla veriye erişebilecek ve daha geniş bir uygulama yelpazesiyle entegre olabilecektir. Dolaylı anında enjeksiyon risklerini önlemek için, Yüksek Lisans kullanan kuruluşların güven sınırlarına öncelik vermesi ve bir dizi güvenlik bariyeri uygulaması gerekecektir. Bu korkuluklar LLM’ye gerekli verilere minimum erişimi sağlamalı ve gerekli değişiklikleri yapma yeteneğini sınırlandırmalıdır.