ChatGPT—ve Benzeri Botlar—Kötü Amaçlı Yazılımları Nasıl Yayabilir?


AI manzarası çok, çok hızlı hareket etmeye başladı: Midjourney ve ChatGPT gibi tüketiciye yönelik araçlar artık doğal dil komutlarına dayalı olarak saniyeler içinde inanılmaz resim ve metin sonuçları üretebiliyor ve bunların web aramadan çocuklara kadar her yerde kullanıldığını görüyoruz. kitabın.

Ancak, bu AI uygulamaları, kötü amaçlı yazılım yaymak da dahil olmak üzere daha alçakça kullanımlara dönüştürülüyor. Örneğin, geleneksel dolandırıcılık e-postasını ele alalım: Europol’ün yakın tarihli bir danışma raporunda belirtildiği gibi, genellikle dilbilgisi ve imla konusunda bariz hatalarla doludur;

Bir düşünün: Pek çok kimlik avı saldırısı ve diğer güvenlik tehditleri, sosyal mühendisliğe dayanır ve kullanıcıları şifreleri, finansal bilgileri veya diğer hassas verileri ifşa etmeye yönlendirir. Bu dolandırıcılıklar için gerekli olan ikna edici, kulağa gerçekçi gelen metin artık hiçbir insan çabası gerektirmeden oldukça kolay bir şekilde pompalanabilir ve belirli izleyiciler için sonsuz bir şekilde ince ayar yapılıp rafine edilebilir.

ChatGPT söz konusu olduğunda, öncelikle geliştirici OpenAI’nin güvenlik önlemleri oluşturduğuna dikkat etmek önemlidir. Ondan “kötü amaçlı yazılım yazmasını” veya “e-dolandırıcılık e-postası yazmasını” isteyin ve size “kötü amaçlı yazılım yazmak veya oluşturulmasına yardımcı olmak da dahil olmak üzere herhangi bir kötü amaçlı faaliyette bulunmamı yasaklayan katı etik yönergeleri takip edecek şekilde programlandığını” söyleyecektir.

ChatGPT sizin için kötü amaçlı yazılımları kodlamaz, ancak bu konuda naziktir.

David Nield aracılığıyla OpenAI

Ancak, bu korumaları aşmak çok da zor değil: ChatGPT kesinlikle kod yazabilir ve kesinlikle e-posta yazabilir. Kötü amaçlı yazılım yazdığını bilmese bile, buna benzer bir şey üretmesi istenebilir. Siber suçluların uygulanan güvenlik önlemlerini aşmak için çalıştıklarına dair şimdiden işaretler var.

Burada özellikle ChatGPT’yi seçmiyoruz, ancak bunun gibi büyük dil modelleri (LLM’ler) daha uğursuz amaçlar için kullanıldığında neyin mümkün olduğuna dikkat çekiyoruz. Aslında, dolandırıcılıklarını daha inandırıcı kılmak için suç örgütlerinin kendi LLM’lerini ve benzeri araçlarını geliştirdiklerini hayal etmek çok da zor değil. Ve bu sadece metin de değil: Ses ve videonun sahtesini yapmak daha zor ama aynı zamanda oluyor.

Patronunuzun acilen bir rapor istemesi veya şirket teknik desteğinin size bir güvenlik düzeltme eki yüklemenizi söylemesi veya bankanızın size yanıt vermeniz gereken bir sorun olduğunu bildirmesi söz konusu olduğunda, tüm bu potansiyel dolandırıcılıklar, güven oluşturmaya ve samimi görünmeye dayanır. , ve bu AI botlarının çok iyi yaptığı bir şey. Kulağa doğal gelen ve belirli kitlelere göre uyarlanmış metin, ses ve video üretebilirler ve talep üzerine bunu hızlı ve sürekli olarak yapabilirler.



Source link