Kötü niyetli aktörlerin elinde, AI araçları her türlü dolandırıcılık, dezenformasyon kampanyaları ve diğer tehditlerin ölçeğini ve şiddetini artırabilir
15 Ocak 2025
•
–
5 dk. Okumak

AI geçen yıl siber güvenlik silah yarışını süper şarj etti. Ve önümüzdeki 12 ay mola vermeyecek. Bunun kurumsal siber güvenlik ekipleri ve işverenleri ve günlük web kullanıcıları için büyük etkileri vardır. AI teknolojisi savunucuların güvenliği artırmasına yardımcı olurken, kötü niyetli aktörler AI destekli araçlara dokunmak için zaman kaybetmez, bu nedenle dolandırıcılık, sosyal mühendislik, hesap sahtekarlığı, dezenformasyon ve diğer tehditlerde bir artış bekleyebiliriz.
İşte 2025’ten bekleyebileceğiniz.
Ne dikkat etmeliyim
2024’ün başında, İngiltere’nin Ulusal Siber Güvenlik Merkezi (NCSC), AI’nın her türlü tehdit oyuncusu tarafından kullanıldığı ve “önümüzdeki iki yıl içinde siber saldırıların hacmini ve etkisini neredeyse kesinlikle artıracağı” konusunda uyardı. Tehdit, üretken yapay zeka (Genai) kötü niyetli aktörlerin kusursuz yerel dillerde son derece ikna edici kampanyalar oluşturmasına yardımcı olabileceği sosyal mühendislik bağlamında en akuttur. AI’nın savunmasız varlıkların büyük ölçekli tanımlanmasını otomatikleştirebileceği keşifte.
Bu eğilimler kesinlikle 2025’e kadar devam ederken, AI’nın şunlar için kullanıldığını da görebiliriz:
- Kimlik Doğrulama Bypass: Deepfake teknolojisi, dolandırıcıların müşterileri selfie ve video tabanlı kontrollerde yeni hesap oluşturma ve hesap erişimi için taklit etmelerine yardımcı olmak için kullanılır.
- İş E -posta Uzlaşması (BEC): AI bir kez daha sosyal mühendislik için konuşlandırıldı, ancak bu kez kurumsal bir alıcıyı dolandırıcının kontrolü altındaki bir hesaba kablolama fonlarına kandırmak için. Deepfake ses ve video, telefon görüşmeleri ve sanal toplantılarda CEO’ları ve diğer üst düzey liderleri taklit etmek için de kullanılabilir.
- Kişim Kişisel Dolandırıcılık: Açık Kaynak Büyük Dil Modelleri (LLMS) dolandırıcılar için yeni fırsatlar sunacak. Onları, hacklenen ve/veya halka açık sosyal medya hesaplarından kazınan veriler üzerinde eğiterek, dolandırıcılar kurbanları sanal kaçırma ve arkadaşlarını ve ailesini kandırmak için tasarlanmış diğer dolandırıcılıklarda taklit edebilirler.
- Etkileyici dolandırıcılık: Benzer şekilde, Genai’nin 2025 yılında dolandırıcılar tarafından, ünlüleri, etkileyicileri ve diğer tanınmış figürleri taklit eden sahte veya yinelenen sosyal medya hesapları oluşturmak için kullanıldığını görmeyi bekleyin. Deepfake videosu, ESET’in en son tehdit raporunda vurgulanan türler de dahil olmak üzere, yatırım ve kripto dolandırıcılıklarında, kişisel bilgileri ve parayı teslim etmek için lure takipçilerine gönderilecektir. Bu, etkili hesap doğrulama araçları ve rozetler sunmak için sosyal medya platformlarına daha fazla baskı oluşturacak – aynı zamanda uyanık kalmak için size.
- Dezenformasyon: Düşman devletler ve diğer gruplar, güvenilir sosyal medya kullanıcılarını sahte hesaplara takmak için sahte içerik oluşturmak için Genai’ye dokunacaktır. Bu kullanıcılar daha sonra etkiler operasyonları için, içerik/trol çiftliklerinden daha etkili ve tespit edilmesi daha zor bir şekilde çevrimiçi amplifikatörlere dönüştürülebilir.
- Şifre Çatlama: AI odaklı araçlar, kurumsal ağlara ve verilere ve müşteri hesaplarına erişim sağlamak için saniyeler içinde kullanıcı kimlik bilgilerinin maskesini kaldırabilir.
2025 için AI gizlilik endişeleri
AI sadece önümüzdeki yıl tehdit aktörleri için bir araç olmayacak. Ayrıca yüksek veri sızıntısı riski getirebilir. LLM’ler, onları eğitmek için çok sayıda metin, görüntü ve video gerektirir. Genellikle kazara, bu verilerin bir kısmı hassas olacaktır: düşün, biyometri, sağlık bilgileri veya finansal veriler. Bazı durumlarda, sosyal medya ve diğer şirketler, modelleri eğitmek için müşteri verilerini kullanacak şekilde değiştirebilir.
AI modeli tarafından hazırlandıktan sonra, AI sisteminin kendisi saldırıya uğrarsa, bu bilgiler bireyler için bir riski temsil eder. Veya bilgiler LLM’nin üzerinde çalışan Genai uygulamaları aracılığıyla başkalarıyla paylaşılıyorsa. Ayrıca, kurumsal kullanıcılar için bilinmeden hassas işle ilgili bilgileri Genai istemleri aracılığıyla paylaşabilecekleri endişesi de var. Bir ankete göre, İngiltere şirketlerinin beşte biri yanlışlıkla çalışanların genai kullanımı yoluyla potansiyel olarak hassas kurumsal verileri ortaya çıkardı.
2025’te savunucular için AI
İyi haber şu ki, AI, yeni ürün ve hizmetlere inşa edildiği için önümüzdeki yıl siber güvenlik ekiplerinin çalışmalarında her zaman daha büyük bir rol oynayacak. Yapay zeka ile çalışan güvenliğin uzun bir geçmişine dayanarak, bu yeni teklifler şunlara yardımcı olacaktır:
- Kullanıcılar, güvenlik ekipleri ve hatta AI güvenlik araçları eğitimi için sentetik veriler oluşturun
- Analistler için uzun ve karmaşık tehdit istihbarat raporlarını özetleyin ve olaylar için daha hızlı karar almayı kolaylaştırın
- Gerilmiş ekipler için uyarıları bağlamsallaştırarak ve önceliklendirerek ve soruşturma ve iyileştirme için iş akışlarını otomatikleştirerek SEPOPS verimliliğini artırın
- Şüpheli davranış belirtileri için büyük veri hacimlerini tarayın
- Upskill BT, yanlış yakınlaştırma olasılığını azaltmaya yardımcı olmak için çeşitli ürünlerde yerleşik olan “Copilot” işlevselliği ile ekipler
Bununla birlikte, BT ve güvenlik liderleri AI’nın sınırlamalarını ve karar alma sürecinde insan uzmanlığının önemini de anlamalıdır. Halüsinasyon, model bozulması ve potansiyel olarak olumsuz sonuçlar riskini azaltmak için 2025’te insan ve makine arasında bir dengeye ihtiyaç duyulacaktır. AI gümüş bir mermi değil. Optimal sonuçlar için diğer araç ve tekniklerle birleştirilmelidir.
AI uyumluluk ve uygulama konusunda zorluklar
Tehdit peyzajı ve AI güvenliğinin geliştirilmesi boşlukta gerçekleşmez. 2025’te, özellikle ABD’de jeopolitik değişiklikler, teknoloji ve sosyal medya sektörlerinde deregülasyona bile yol açabilir. Bu da dolandırıcıları ve diğer kötü niyetli aktörleri, AI tarafından üretilen tehditlerle çevrimiçi platformları sular altında bırakabilir.
Bu arada AB’de, AI düzenlemesi konusunda hala uyum ekipleri için hayatı zorlaştırabilecek bazı belirsizlikler var. Hukuk uzmanlarının belirttiği gibi, uygulama ve rehberlik kurallarının hala çözülmesi ve AI sistemi arızaları için sorumluluk hesaplanması gerekmektedir. Teknoloji sektöründen lobi yapmak, AB AI Yasasının uygulamada nasıl uygulandığını henüz değiştirebilir.
Bununla birlikte, açık olan, AI’nın 2025’te teknoloji ile etkileşim şeklimizi iyi ve kötü bir şekilde değiştireceğidir. İşletmeler ve bireylere büyük potansiyel faydalar sunar, aynı zamanda yönetilmesi gereken yeni riskler de sunar. Bunun gerçekleştiğinden emin olmak için önümüzdeki yıl daha yakın çalışmak herkesin çıkarları içinde. Hükümetler, özel sektör işletmeleri ve son kullanıcılar, risklerini hafifletirken AI’nın potansiyelinden yararlanmak için rollerini oynamalı ve birlikte çalışmalıdır.