YORUM
Verizon “Veri İhlali Araştırmaları Raporu” (DBIR), gerçek dünya olaylarının analizine dayalı olarak veri ihlalleri ve siber tehditler hakkında değerli içgörüler sağlayan son derece güvenilir bir yıllık rapordur. Siber güvenlik uzmanları, gelişen tehdit ortamındaki eğilimlere dayalı güvenlik stratejilerini bilgilendirmek için bu rapora güvenir. Ancak, 2024 DBIR Özellikle siber saldırılarda üretken yapay zekanın rolüne ilişkin bazı ilginç soruları gündeme getirdi.
DBIR’ın Üretken Yapay Zeka Konusundaki Duruşu
Son DBIR’ın yazarları, araştırmacıların “saldırılarda ortaya çıkan üretken yapay zeka (GenAI) alanının kullanımına dair herhangi bir belirti ve bu teknolojilerin potansiyel etkilerine karşı dikkatli olduklarını, ancak küresel olarak topladığımız olay verilerinde hiçbir şey ortaya çıkmadığını” belirtiyor.
Verizon’un belirli veri toplama yöntemlerine dayanarak bu ifadenin doğru olduğundan şüphem yokken, sahada gördüğümüzle taban tabana zıttır. Verizon’un GenAI hakkındaki genel açıklamasının ana uyarısı, İngilizce bilmeyen saldırganlar için GenAI’yi “kritik olarak etkinleştiren bir teknoloji” olarak gösteren bir Gizli Servis soruşturmasından bahseden 2024 DBIR ekinde yer almaktadır.
Ancak SlashNext’te şunu gözlemledik: GenAI’nin siber saldırılar üzerindeki gerçek etkisi bu tek kullanım durumunun çok ötesine uzanır. Aşağıda “doğada” gördüğümüz altı farklı kullanım durumu bulunmaktadır.
Siber Suçlarda Üretken Yapay Zekanın Altı Kullanım Örneği
1. AI-Geliştirilmiş Kimlik Avı E-postaları
Tehdit araştırmacıları, siber suçluların kimlik avı e-postalarının etkinliğini artırmak için GenAI ve çeviri araçlarının nasıl kullanılacağına dair kılavuzlar paylaştıklarını gözlemlediler. Bu forumlarda, bilgisayar korsanları profesyonel sesli e-postalar oluşturmak için ChatGPT kullanılmasını öneriyor ve ana dili İngilizce olmayan kişilere daha ikna edici mesajlar oluşturmaları için ipuçları sağlıyor. Kimlik avı halihazırda en yaygın saldırı türlerinden biri ve Verizon’un DBIR’ına göre bile, bir kullanıcının kimlik avı e-postasındaki kötü amaçlı bir bağlantıya tıklaması e-posta açıldıktan sonra ortalama sadece 21 saniye sürüyor ve kullanıcının verilerini vermesi için sadece 28 saniye daha gerekiyor. Kimlik avı e-postaları oluşturmak için GenAI’dan yararlanan saldırganlar, bu saldırıları daha ikna edici ve etkili hale getiriyor.
2. Yapay Zeka Destekli Kötü Amaçlı Yazılım Üretimi
Saldırganlar, arka planda algılanmadan çalışabilen tuş kaydediciler gibi kötü amaçlı yazılımlar geliştirmek için AI kullanımını araştırıyor. Python’u bir kodlama dili olarak kullanarak bir tuş kaydedici oluşturmalarına yardımcı olması için AI tabanlı büyük dil modeli (LLM) WormGPT’yi istiyorlar. Bu, siber suçluların kötü amaçlı faaliyetlerini kolaylaştırmak ve geliştirmek için AI araçlarını nasıl kullandıklarını gösteriyor. Saldırganlar, kodlamaya yardımcı olmak için AI kullanarak potansiyel olarak daha karmaşık ve algılanması daha zor kötü amaçlı yazılımlar oluşturabilirler.
3. AI Tarafından Oluşturulan Sahtekarlık Web Siteleri
Siber suçlular, şüphesiz kurbanları sahte web sitelerine yönlendirmek için tasarlanmış bir dizi dolandırıcılık web sayfası veya “anahtar teslim kapılar” oluşturmak için sinir ağlarını kullanıyor. Yapay zeka tarafından oluşturulan bu sayfalar genellikle meşru siteleri taklit ediyor ancak gizli kötü amaçlı öğeler içeriyor. Sinir ağlarından yararlanarak saldırganlar, tespit edilmekten kaçınmak için her biri biraz farklı olan çok sayıda ikna edici sahte sayfa üretebiliyor. Bu otomatik yaklaşım, siber suçluların daha geniş bir ağ atmalarına ve potansiyel olarak daha fazla kurbanı kimlik avı planlarına dahil etmelerine olanak tanıyor.
4. Hesap Doğrulama Baypası için Deepfake’ler
SlashNext tehdit araştırmacıları, Dark Web’de satıcıların, derin sahteler bankalar ve kripto para borsaları için hesap doğrulama süreçlerini atlatmak için. Bunlar “müşterinizi tanıyın” (KYC) yönergelerini atlatmak için kullanılır. Bu endişe verici eğilim, AI tarafından üretilen deepfake’lerin sosyal mühendislik ve yanlış bilgilendirme kampanyalarının ötesinde finansal dolandırıcılık araçlarına nasıl dönüştüğünü gösteriyor. Suçlular, biyometrik doğrulamaya dayanan güvenlik sistemlerini kandırarak gerçekçi video ve ses taklitleri oluşturmak için gelişmiş AI kullanıyor.
5. AI Destekli Ses Sahteciliği
Siber suçlular, nasıl bilgi paylaşacaklarına dair bilgileri paylaşıyor yapay zekayı sesleri taklit etmek ve klonlamak için kullanın çeşitli siber suçlarda kullanılmak üzere. Bu yeni tehdit, insan seslerini şaşırtıcı bir doğrulukla yeniden oluşturmak için gelişmiş makine öğrenme algoritmalarından yararlanıyor. Saldırganlar, potansiyel olarak bu yapay zeka tarafından oluşturulan ses klonlarını sosyal mühendislik saldırılarında yöneticileri, aile üyelerini veya otorite figürlerini taklit etmek için kullanabilirler. Örneğin, fon transferlerini yetkilendirmek, ses tabanlı güvenlik sistemlerini atlatmak veya kurbanları hassas bilgileri ifşa etmeye yönlendirmek için hileli telefon görüşmeleri yapabilirler.
6. AI-Geliştirilmiş Tek Seferlik Şifre Botları
Yapay zeka, sesli kimlik avı için şablonlar oluşturmak üzere tek seferlik parola (OTP) botlarına entegre ediliyor. Bu gelişmiş araçlar, özel sesler, sahte arayan kimlikleri ve etkileşimli sesli yanıt sistemleri gibi özellikler içeriyor. Özel ses özelliği, suçluların güvenilir varlıkları veya hatta belirli kişileri taklit etmesine olanak tanırken, sahte arayan kimlikleri dolandırıcılığa daha fazla güvenilirlik katıyor. Etkileşimli sesli yanıt sistemleri, sahte aramaları meşru olanlardan neredeyse ayırt edilemez hale getirerek ekstra bir gerçekçilik katmanı ekliyor. Yapay zeka destekli bu yaklaşım, yalnızca kimlik avı girişimlerinin başarı oranını artırmakla kalmıyor, aynı zamanda güvenlik sistemlerinin ve bireylerin bu tür saldırıları tespit etmesini ve önlemesini de zorlaştırıyor.
Siber güvenlikte AI etrafında çok fazla abartı olduğu konusunda DBIR’ye katılsam da, üretken AI’nın tehdit manzarası üzerindeki potansiyel etkisini göz ardı etmemek çok önemlidir. Yukarıda sunulan anekdotsal kanıtlar, siber suçluların AI destekli saldırı yöntemlerini aktif olarak araştırdığını ve uyguladığını göstermektedir.
İleriye Bakış
Kuruluşlar siber güvenlikte AI konusunda proaktif bir duruş sergilemelidir. AI destekli saldırıların hacmi şu anda resmi veri kümelerinde düşük olsa bile, anekdotsal kanıtlarımız tehdidin gerçek olduğunu ve arttığını gösteriyor. İleriye dönük olarak, aşağıdakileri yapmak önemlidir:
-
Yapay zeka ve siber güvenlik alanındaki son gelişmelerden haberdar olun
-
Açıkça faydalar sağlayabilen yapay zeka destekli güvenlik çözümlerine yatırım yapın
-
Gelişen tehditlere yanıt vermek için güvenlik süreçlerini sürekli olarak değerlendirin ve iyileştirin
-
Yapay zeka teknolojilerinden yararlanan yeni saldırı vektörlerine karşı dikkatli olun
DBIR’nin bulgularına saygı duysak da, resmi raporlarda AI destekli saldırılara ilişkin bol miktarda veri bulunmamasının, özellikle GenAI teknolojilerinin yalnızca son iki yılda yaygın olarak kullanılabilir hale gelmesi nedeniyle, potansiyel gelecekteki tehditlere hazırlanmamızı ve bunları azaltmamızı engellememesi gerektiğine inanıyoruz. Sunduğumuz anekdotsal kanıtlar, sürekli teyakkuz ve proaktif önlemlere olan ihtiyacı vurgulamaktadır.