Bu Help Net Security röportajında Reaktr.ai Başkanı Vineet Chaku, yapay zekanın özellikle anormallik tespiti ve tehdit tanımlama konularında siber güvenliği nasıl dönüştürdüğünü anlatıyor. Chaku, siber güvenlik profesyonellerinin yapay zeka sistemleriyle işbirliği yapmak ve dağıtımla ilgili etik kaygıları ele almak için ihtiyaç duyduğu becerilerden bahsediyor.
Yapay zeka, özellikle anormallik tespiti ve tehdit tanımlama konularında siber güvenliğe yönelik geleneksel yaklaşımları nasıl dönüştürüyor?
Siber güvenlik eskiden yetişmeye oynamaya benziyordu. Her zaman en son soruna tepki gösteriyorduk, zaten kötü bir şey olduktan sonra işleri düzeltmeye çalışıyorduk. Ancak yapay zeka bunu değiştiriyor. Sanki sonunda bir adım önde olmanın, sorunları daha gerçekleşmeden tespit etmenin bir yolunu bulmuşuz gibi.
Örneğin yapay zeka olağandışı etkinlikleri bulma konusunda gerçekten çok iyi. Birisinin birdenbire olmaması gereken dosyalara bakması ya da ağda yabancı bir yerden artan bir aktivite olması fark etmeksizin, yapay zeka bunları anında işaretleyebilir. Şüpheli faaliyetlere karşı altıncı hisse sahip olmak gibi bir şey bu.
Ancak yapay zeka yalnızca bariz sorunları bulmuyor. Tonlarca bilgiye bakıp gizli kalıpları bulabilir ve tamamen gözden kaçırabileceğimiz tehditleri ortaya çıkarabilir. Kötü bir şeyin olmasını engellemek için görünüşte alakasız olayları birbirine bağlayabilen bir dedektife sahip olmak gibi.
Sorunları tahmin etme ve önleme yeteneği oyunun kurallarını değiştirecek niteliktedir. Sorunlara tepki vermekten, onları ortaya çıkmadan önce durdurmaya kadar gitmemizi sağlar.
Yapay zekanın insan yaratıcılığının yerini alamayacağı göz önüne alındığında, siber güvenlik profesyonellerinin yapay zeka sistemleriyle işbirliği yapmak için hangi becerileri geliştirmesi gerekiyor?
Yapay zeka güçlü bir araçtır ancak insanların yerini alamaz. İşimizi daha iyi yapmamıza yardımcı olmakla ilgili. En iyi siber güvenlik çalışanları, yapay zeka ile etkili bir şekilde çalışabilen ve bunu kendi becerilerini ve bilgilerini artırmak için kullanabilen kişiler olacaktır.
Bunu şu şekilde düşünün: Yapay zeka yüksek teknolojiye sahip bir araçtır, ancak insanlar bu aracı etkili bir şekilde nasıl kullanacağını bilen vasıflı işçilerdir.
Bu ortaklıktan en iyi şekilde yararlanmak için yapay zekanın nasıl çalıştığını anlamamız gerekiyor. Nasıl öğrendiğini, nasıl karar verdiğini, neyi yapıp neyi yapamayacağını bilmemiz gerekiyor. Bu bilgi, yapay zekanın içgörülerini anlamamıza, olası hataları belirlememize ve yapay zekanın sorumlu bir şekilde kullanılmasını sağlamamıza olanak tanır.
Ancak mesele yalnızca yapay zekayı anlamak değil; aynı zamanda yeni bir çalışma şekline uyum sağlamakla da ilgilidir. Tehditlerin yapay zeka sistemlerini nasıl etkileyebileceğini anlamak, yapay zekanın kendisini hedef alan saldırılara karşı nasıl korunacağımızı anlamak ve daha güçlü güvenlik stratejileri geliştirmek için yapay zeka ile birlikte çalışmak gibi alanlarda beceriler geliştirmemiz gerekiyor.
Siber suçlular daha karmaşık saldırı vektörleri geliştirmek için yapay zekadan nasıl yararlanıyor?
Ne yazık ki kötü adamlar her zaman sorun yaratmanın yeni yollarını arıyorlar. Ve yapay zekayı kendi avantajlarına kullanıyorlar. Temelde daha karmaşık, daha hedefli ve tespit edilmesi her zamankinden daha zor olan yeni siber tehdit türleri yaratıyorlar.
Yapay zeka destekli robotlardan oluşan bir ordunun sürekli olarak sistemlerinizdeki zayıflıkları aradığını, gerçeğinden ayırt edilmesi neredeyse imkansız olan kişiselleştirilmiş e-postalar hazırladığını ve hatta kendi yapay zekanızı size karşı manipüle ettiğini hayal edin. Bugün karşı karşıya olduğumuz gerçek budur.
Gerçek zamanlı olarak değişebilen ve uyum sağlayabilen kötü amaçlı yazılımlar geliştirmek için yapay zekayı kullanıyorlar, bu da geleneksel güvenlik araçlarıyla tespit edilmesini inanılmaz derecede zorlaştırıyor. Şifreleri daha hızlı kırmak, potansiyel hedefleri belirlemek için sosyal medyayı analiz etmek ve belirli zayıflıklardan yararlanan yüksek hedefli saldırılar başlatmak için yapay zekayı kullanıyorlar.
Yapay zekanın siber güvenlikte kullanılmasıyla ilgili hangi etik kaygılar ortaya çıkıyor ve kuruluşlar bunları nasıl çözebilir?
Yapay zeka güçlü bir araçtır ve her araç gibi iyiye de kötüye de kullanılabilir. Özellikle siber güvenlik söz konusu olduğunda yapay zekayı sorumlu ve etik bir şekilde kullanmamız çok önemlidir.
Önemli bir endişe önyargıdır. Bir yapay zeka sistemi önyargılı verilerden öğrenirse bu önyargıları devam ettirebilir ve bu da adil olmayan sonuçlara yol açabilir. Sırf eğitim aldığı bilgilerdeki önyargılar nedeniyle belirli gruplardan kişileri şüpheli olarak işaretleme ihtimalinin daha yüksek olduğu bir güvenlik sistemi düşünün.
Bir diğer endişe şeffaflıktır. Birçok yapay zeka sistemi karmaşıktır ve anlaşılması zordur, bu da onların nasıl karar verdiklerini bilmeyi zorlaştırır. Bu şeffaflık eksikliği, hataları tanımlamayı ve düzeltmeyi zorlaştırabilir.
Ve tabii ki veri gizliliği meselesi de var. Yapay zeka sistemlerinin çalışması için çok fazla veriye ihtiyaç duyması, bu verilerin nasıl toplandığı, saklandığı ve kullanıldığı konusunda endişeleri artırıyor. Kuruluşlar, kullanıcı gizliliğini koruyarak verileri sorumlu ve etik bir şekilde kullandıklarından emin olmalıdır.