Siber güvenlik dünyası yapay zeka (AI) tarafından bozuluyor. Teknolojisi şirketlerin saldırıya uğrama sorununu çözmeye yardımcı olan Darktrace’in baş ürün sorumlusu Max Heinemeyer, bilgisayar korsanlarının gelişmiş yapay zekayı kullanarak giderek daha karmaşık saldırılar geliştirdiğini görüyor.
ChatGPT gibi büyük dil modelleri, artık kullanıcılara e-posta mesajlarında yazım hatalarını ve kötü dilbilgisini kontrol etmek gibi iyi güvenlik hijyeninin temellerini öğretmenin basit bir durumu olmadığı anlamına gelir. Hedefli e-posta saldırıları, internette ve sosyal medyada kolayca bulunabilen büyük hacimli kişisel verilerden yararlanılarak çok kişiselleştirilebilir.
E-postayı “daha az uygun” hale getirme durumu pekala tartışılabilir. Örneğin, bir kullanıcı mesajdaki bir bağlantıya tıkladığında bağlantıların doğrudan açılmasını engellemek, bir kimlik avı saldırısının etkisini sınırlar. Ancak Heinemeyer, bu tür önleyici tedbirlere pek sıcak bakmıyor. “Nereden geldiğini anlıyorum, ama o yoldan gidersek arabayı atın önüne koyduğumuzu düşünüyorum,” diyor.
Heinemeyer, güvenliğin işletmeleri desteklemesi gerektiğine inanıyor. “İnsanların astronot olmalarını, hukuk araştırmalarını ve eğlenceye erişmelerini ve güvenlikten rahatsız olmamalarını istiyoruz. İletişimlerini engellememeliyiz. Şahsen, güvenlik teknolojisinin hız kazanması ve arka planda sorunsuz çalışması gerektiğini düşünüyorum” diye ekliyor.
E-postanın bir sunucu aracılığıyla bir istemci cihaza, örneğin kullanıcının ahizesine gönderildiği göz önüne alındığında, e-posta mesajlarını tarayan ve hatta bu mesajlara katıştırılmış şüpheli bağlantıları korumalı alan olarak kullanan ağ geçidi tabanlı güvenliği kullanmak için pek çok fırsat vardır. Ancak Darktrace’in yaklaşımı bu değil. Bunun yerine şirket, bireysel çalışanların normal iş iletişimlerini anlamak için makine öğrenimini kullanıyor.
“Daha önce hiç tıklamadığınız bir bağlantıya tıklamanızda bir sakınca yoktur, ancak bu bağlantı sizi bir şeye tıklamaya teşvik etmeye çalışan bir göndericiden geldiyse ve iş bağlamında açıkça garipse, o zaman bir şey yapılmalı” bitti,” diyor Heinemeyer.
Normal işlerin devam etmesine izin vermek için siber güvenlik sistemlerinin yeterince akıllı olması gerektiğine inanıyor. Ama garip şeylerin durdurulması ve yasaklanması gerektiğini söylüyor. Örneğin, şöyle diyor: “Mesajın detayına inerseniz ve gönderenin kuruluşunuzun geri kalanına hiçbir şey göndermediğini görürseniz ve sözdiziminin insanların normalde sizinle konuşma şeklini yansıtmadığını fark ederseniz, o zaman ‘ d tıklamaya tıklamamak daha iyi.”
Normal iş konuşmasıyla karşılaştırıldığında farklılıkları belirleyen semantik analiz yoluyla keşfedilen yüzlerce küçük işaret olduğunu söylüyor. Heinemeyer, insanların bunları asla seçemeyeceğini, ancak makine öğreniminin kullanıcıyı ve normal davranışın nasıl göründüğünü anlayabileceğini söylüyor.
Heinemeyer, otomasyon ve makine öğrenimi kullanımının kişiselleştirilmiş hedefli siber saldırılara karşı koymaya yardımcı olabileceğine inanıyor. “Siber suçlulardan gelen mesajları kullanıcıdan uzak tutan veya bağlantıları ortadan kaldıran yeterince akıllı sistemlere ihtiyacımız var” diye ekliyor. Makine öğrenimi, normal işi durdurmayacak kadar akıllı olmalıdır.
Ancak bu tür bir izlemenin biraz Hollywood’un gişe rekorları kıran filmine benzediğine dair çok gerçek bir his var. Azınlık Raporu, makinelerin bir suç faaliyetinin gerçekleşip gerçekleşmeyeceğini tahmin etmek için arka planda insanları izlediği yer. Bu tür bir teknolojinin suç faaliyetlerini hedeflemek için polislikte kullanılmasına ilişkin yasal ve etik tartışmalar olsa da, e-posta ve diğer elektronik iletişim biçimlerini izlemek için yapay zeka kullanmanın toplumsal etkisi hakkında sorular sorulmalıdır.