Siber suçlular yapay zekayla üretkenlik artışı elde ediyor


iProov’a göre yapay zeka teknolojisi, faydalı sonuçlar elde etmek için süreçleri kolaylaştırma ve otomatikleştirme potansiyeline sahipken aynı zamanda veri koruma, siber güvenlik ve diğer etik kaygılar açısından da aynı sayıda riski beraberinde getiriyor.

Yapay zeka teknolojisi siber güvenlik riskleri

Kuruluşlar ve hükümetler tüketici ve iş gücü talebini karşılamak için uzaktan erişim ve hizmetler sağlamaya çalışırken, dijital ekosistemler rekor düzeylerde büyümeye ve çoğalmaya devam ediyor. Bununla birlikte, bu büyümenin istenmeyen yan etkisi, sürekli genişleyen bir saldırı yüzeyidir; bu, kolayca erişilebilen ve suç teşkil edecek şekilde silah haline getirilen üretken yapay zeka araçlarının mevcudiyeti ile birleştiğinde, son derece güvenli uzaktan kimlik doğrulama ihtiyacını artırmıştır.

Siber suçlular gelişmiş yapay zeka araçlarını kullanıyor

iProov’un yeni tehdit raporu, kötü aktörlerin, yeni ve geniş çapta eşlenmemiş tehdit vektörleri oluşturmak için emülatörlerle ve diğer meta veri manipülasyon metodolojileriyle (geleneksel siber saldırı araçları) birlikte ikna edici yüz değiştirme gibi gelişmiş yapay zeka araçlarını nasıl kullandığını ortaya koyuyor.

Yüz takasları, üretken yapay zeka araçları kullanılarak oluşturuluyor ve görüntünün veya videoların temel özelliklerini değiştirebilme yetenekleri nedeniyle kimlik doğrulama sistemleri için büyük bir zorluk teşkil ediyor. Bir yüz değiştirme, kullanıma hazır video yüz değiştirme yazılımı tarafından kolayca oluşturulabilir ve manipüle edilmiş veya sentetik çıktının sanal bir kameraya beslenmesiyle kullanılabilir. Gelişmiş biyometrik sistemler, insan gözünün aksine bu tür saldırılara karşı dayanıklı hale getirilebiliyor.

Ancak 2023 yılında kötü niyetli kişiler, emülatörler gibi siber araçları kullanarak sanal kameraların varlığını gizleyerek bazı sistemlerdeki bir açıktan yararlandı ve biyometrik çözüm sağlayıcılarının tespitini zorlaştırdı. Bu, saldırganların yüz değiştirme ve emülatörleri kimlik sahtekarlığı yapmak için tercih ettikleri araçlar haline getirmesiyle mükemmel bir fırtına yarattı.

“Üretken yapay zeka, tehdit aktörlerinin üretkenlik düzeylerinde büyük bir artış sağladı: Bu araçlar nispeten düşük maliyetlidir, kolayca erişilebilirdir ve yüz değiştirme veya insanı kolayca kandırabilecek diğer deepfake biçimleri gibi oldukça ikna edici sentezlenmiş medyalar oluşturmak için kullanılabilir. göz ve daha az gelişmiş biyometrik çözümler. Bu yalnızca son derece güvenli uzaktan kimlik doğrulama ihtiyacını artırmaya hizmet ediyor,” diyor iProov Bilimsel Direktörü Andrew Newell.

“Raporumuzdaki veriler, yüz takaslarının şu anda tehdit aktörlerinin deepfake tercihi olduğunu vurgulasa da sırada ne olacağını bilmiyoruz. Bir adım önde kalmanın tek yolu, saldırılarını, saldırı sıklığını, kimi hedeflediklerini, kullandıkları yöntemleri sürekli izleyip belirlemek ve onları neyin motive ettiğine dair bir dizi hipotez oluşturmaktır” diye ekledi Newell.

Tehdit aktörlerinin farklı platformlarda dijital enjeksiyon saldırıları başlatmak için emülatör ve meta veri sahteciliği kullanımı ilk olarak 2022’de iProov Güvenlik Operasyon Merkezi (iSOC) tarafından gözlemlendi, ancak 2023’te 2023’ün ilk yarısından ikinci yarısına kadar %353 oranında artarak hakim olmaya devam etti. cep telefonu gibi kullanıcının cihazını taklit etmek için kullanılan bir yazılım aracıdır. Bu saldırılar hızla gelişiyor ve mobil platformlar için önemli yeni tehditler oluşturuyor: Mobil web’e yönelik enjeksiyon saldırıları 2023’ün ilk yarısından ikinci yarısına kadar %255 arttı.

Yeni trendler keşfedildi

2022 ve 2023 yılları arasında ayrım gözetmeyen saldırı seviyeleri ayda 50.000 ile 100.000 arasında değişiyordu. Ayrıca aktörlerin sayısında da önemli bir artış oldu ve kullanılan araçların karmaşıklığında da bir gelişme oldu.

Biyometrik ve uzaktan insan tanımlama veya “video tanımlama” sistemlerine yönelik saldırılarla ilgili bilgi alışverişinde bulunan grupların sayısında da önemli bir artış gözlemlendi; bu, tehdit aktörleri tarafından artık benimsenen işbirlikçi yaklaşımın kanıtıdır. iProov analistleri tarafından belirlenen grupların %47’si 2023’te oluşturuldu.

iSOC tarafından gözlemlenen iki temel saldırı türü vardır: sunum saldırıları ve dijital enjeksiyon saldırıları.

Bir saldırının başlatılmasını çok daha kolay ve hızlı hale getiren paketlenmiş AI görüntüleme araçlarında önemli bir artış ve bunun daha da ilerlemesi bekleniyor.

Meta veri sahteciliği araçlarının yanı sıra yüz değiştirme gibi deepfake medyaların kullanımında 2023’ün ilk yarısından 2023’ün ikinci yarısına kadar %672’lik bir artış oldu. Sunum ve dijital enjeksiyon saldırılarının farklı düzeyde etkileri olabilir ancak meta veri manipülasyonu gibi geleneksel siber saldırı araçlarıyla birleştirildiğinde önemli bir tehdit oluşturabilirler.



Source link