Kötü amaçlı yazılımlardan derin gagalara kadar, Gen AI siber saldırıları dönüştürüyor


Bu ses otomatik olarak oluşturulur. Geri bildiriminiz varsa lütfen bize bildirin.

National Harbor, Md. – Yapay zeka, kötü amaçlı yazılım yazmaktan kimlik avı mesajları hazırlamaya kadar korsanların operasyonlarını turboşatlamaktır. Ancak siber güvenlik uzmanı, Pazartesi günü burada yapılan bir sektör konferansında, üretken AI’nın çok iyi etkilenen etkisinin sınırları olduğunu söyledi.

Gartner’ın Seçkin VP analisti Peter Firstbrook, şirketinin Güvenlik ve Risk Yönetimi Zirvesi’nde “Sosyal Mühendislik ve Saldırı Otomasyonunu geliştirmek için kullanılıyor” dedi.

Uzmanlar, AI’nın saldırganların özel izinsiz giriş araçları geliştirme yeteneğini devrim yaratacağını, acemi bilgisayar korsanlarının bile bilgileri çalabilmesi, bilgisayar etkinliği kaydedebilmesi veya sabit diskleri silme yeteneğine sahip kötü amaçlı yazılımları derlemesi için gereken süreyi azaltacağını tahmin ettiler.

Firstbrook, “AI kod asistanlarının Gen AI için bir katil uygulaması olduğuna dair bir soru yok” dedi. “Büyük üretkenlik kazanımları görüyoruz.”

Eylül ayında HP araştırmacıları, bilgisayar korsanlarının AI’yı kullandığını bildirdi. Uzaktan Erişim Truva atı Oluştur. Bu rapora atıfta bulunarak Firstbrook, “Saldırganların yeni kötü amaçlı yazılım oluşturmak için Gen Ai’yi kullanmaktan yararlanmayacağına inanmak zor olurdu. Bunu görmeye başladık.” Dedi.

Saldırganlar ayrıca AI’yı daha sinsi bir şekilde kullanıyor: Oluşturma Sahte açık kaynaklı yardımcı programlar ve geliştiricileri bilmeden kötü amaçlı kodu meşru uygulamalarına dahil etmeleri.

“Bir geliştirici dikkatli değilse ve yanlış açık kaynak yardımcı programını indirirse, [their] Kod, üretime çarpmadan önce geri yüklenebilir ”dedi.

Bilgisayar korsanları bunu AI’dan önce yapabilirdi, ancak yeni teknoloji GitHub gibi kod depolarını ezmelerine izin veriyor ve bu da kötü amaçlı paketleri yeterince hızlı bir şekilde düşüremiyor.

“Bu bir kedi ve fare oyunu,” dedi Firstbrook, “ve Gen Ai bu yardımcı programları oraya çıkarmak için daha hızlı olmalarını sağlıyor.”

Deeprafes hala nadir

. Yapay zekanın geleneksel kimlik avı kampanyalarına entegrasyonu büyüyen bir tehdittir, ancak şu ana kadar etki sınırlı görünmektedir. Gartner, yakın tarihli bir araştırmada, kuruluşların% 28’inin yaşadığını buldu. Deepfake ses saldırısı; % 21 Deep Prope Video saldırısı; ve% 19 Biyometrik korumaları atlayan bir derin yaprak ortamı saldırısı. Yine de, kuruluşların sadece% 5’i, para veya fikri mülkiyet hırsızlığına neden olan derin asfak saldırıları yaşadı.

Yine de, Firstbrook, “Bu büyük bir alan.” Dedi.

Analistler, AI’nın yaratabileceği saldırı hacmi nedeniyle AI’nın belirli türden saldırıları çok daha karlı hale getirme potansiyeli hakkında endişeleniyorlar. Firstbrook, “Bir satış elemanıyım ve genellikle ‘evet’ almam için 100 soruşturma alıyorsa, o zaman ne yapıyorsun? 200 yapıyorsun ve satışlarınızı iki katına çıkardınız” dedi. “Bu adamlarla aynı şey. Eğer saldırının tüm spektrumunu otomatikleştirebilirlerse, o zaman çok daha hızlı hareket edebilirler.”

En az bir gen AI ile ilgili korku aşırı şişmiş gibi görünüyor-en azından şimdilik. Araştırmacılar henüz tamamen yeni saldırı teknikleri yarattığını görmediler.

“Şimdiye kadar, bu gerçekleşmedi,” dedi Firstbrook, “ama bu endişelendiğimiz şeyin zirvesinde.”

Firstbrook, bilgisayar korsanlarının bilgisayar sistemlerini delmek için geliştirdiği stratejileri kataloglayan MITER ATT & CK çerçevesinden verilere dikkat çekti. “Her yıl sadece bir veya iki yepyeni saldırı tekniği alıyoruz” dedi.



Source link