Siber Güvenlikte Yapay Zeka: Dost mu Düşman mı?


Kuruluşlar güvenlik operasyonlarında yapay zekadan (AI) nasıl hem yararlanabilir hem de ona karşı savunma yapabilir.

Yapay zeka uzun yıllardan beri ortalıkta dolaşıyor ve yeni bir kavram olmasa da, büyük dil modelleri (LLM’ler) tarafından desteklenen üretken yapay zekanın (GenAI) ortaya çıkışı, küresel olarak yapay zeka hakkındaki tartışmaları büyük ölçüde değiştirdi. OpenAI’nin GenAI aracı ChatGPT’yi kamuya yayınlamasından önce, yapay zeka genellikle sınırlı zeka ve yeteneğe sahip bir araç olarak görülüyordu. Artık Üretken Yapay Zekanın yeni kullanım örnekleri, güvenlik ve üretkenlik gibi alanlarda genişletilmiş kapasitesini kanıtlamaya devam ettikçe, kurumsal yöneticilerin yapay zekayı teknoloji yığınları ve iş akışları genelinde uygulamak için yarışmasıyla birlikte benimsenmesi her sektörü kapsamaya başlıyor. Google gibi şirketler, Bard ve Vertex AI gibi teklifler aracılığıyla yapay zeka mühendisliğini denemenin de yolunu açtı.

Şu anda güvenlik ekipleri siber güvenlikte yapay zeka etrafında iki farklı konuşmaya tanık oluyor:

  • Birincisi, yapay zekanın savunma potansiyeli ve işletmelerin operasyonları kolaylaştırırken güvenlik duruşlarını desteklemek için yapay zekanın gücünden yararlanabileceği tüm yollar.
  • İkincisi, hem mahremiyet hem de doğruluğun yanı sıra yapay zekayı kullanan kötü aktörlere karşı nasıl savunma yapılacağına ilişkin endişeler.

Büyük şemaya göre bu konuşmalar üç kategoriye ayrılabilir:

  1. Güvenlik operasyonlarında yapay zekadan nasıl yararlanılır?
  2. AI kullanırken güvenliği nasıl sağlanır?
  3. Yapay zeka odaklı siber saldırılara karşı nihai olarak nasıl savunma yapılır?

Güvenlik Operasyonları için Yapay Zeka Araçlarından Yararlanma

Güvenlik ekipleri şimdi şu kritik soruyu soruyor: “Güvenlik operasyonlarını dönüştürmek için yapay zekadan nasıl yararlanabiliriz?” Daha spesifik olarak bu ekipler, GenAI’nin tahmine dayalı analitik, tespit yeteneği, araştırma yeteneği, iş akışı otomasyonu ve AI yardımcı pilotları için kullanımlarını inceliyor.

Modern şirketler her gün devasa miktarlarda veri topluyor, saklıyor ve hatta taşıyor. Gerçek şu ki adresler, ödeme bilgileri, Sosyal Güvenlik numaraları ve isimler gibi hassas bilgiler güvenlikle ilgili veriler olarak kabul edilir. Güvenlikle ilgili bu bilgilerin hacmi tahmin edilemeyecek kadar büyük, ancak yine de bunları topluyorlar. Yapay zeka ile güvenlik ekipleri için yeni bir araç ve kaynak alanı açılıyor.

Makine öğrenimi (ML), büyük ölçüde istatistiksel anormallikleri tespit ederken kullandığı matematiksel yaklaşım sayesinde, bu devasa veri depolarındaki kalıpları doğru bir şekilde tanımlamak için en iyi araçlardan biridir. ML’nin başarılı olmasının bir örneği, belirli bir sistem içindeki kalıplaşmış davranışları nedeniyle bir kullanıcının beklenmedik sistem erişimini tespit etme yeteneğidir. Davranışsal anormallikleri ayırt etme yeteneği, daha sonra, iç sistemlerin ve ağların güvenliğini sağlamak için önlem alınması gerekip gerekmediğini belirlemeye yardımcı olabilecek kullanıcı etkinliklerine dayalı dinamik risk puanları atamak için kullanılabilir.

Bunun ötesinde, güçlü bir savunmanın desteklenmesinde GenAI’nın önemli bir rolü var. Şirketler, bir yandan nitelikli mühendis eksikliğini giderirken, bir yandan da yönetmek zorunda oldukları devasa güvenlik bilgisi akışlarını anlamlandırmakta zorlanıyor. 2024’te siber güvenlik araçlarının, temel kullanıcı arayüzlerinde doğal dil “istemlerini” (ChatGPT’ye benzer) benimsediğini görmeyi bekliyoruz. Bu, daha yeni ve daha az deneyimli güvenlik analistlerinin güçlü ancak karmaşık arama sorgularını saniyeler içinde yürütmesine olanak tanıyacak ve bir CISO’nun, karmaşık verileri basit, insan dilinde açıklayarak güvenlik operasyon merkezlerinden (SOC) çıkan bilgileri hızlı bir şekilde anlamasına olanak tanıyacak. şartlar.

Yapay Zekanın Güvenliğini Sağlamaya Yönelik Derinlemesine Savunma Stratejisi

CISO’lar ikili bir zorlukla karşı karşıya: GenAI’nin üretkenlik potansiyelinden yararlanırken bir yandan da güvenli dağıtımını sağlamak. GenAI’nin faydaları muazzam olsa da şirketler arasında, özellikle istenmeyen eğitim, veri sızıntısı ve hassas kurumsal bilgilerin veya kişisel olarak tanımlanabilir bilgilerin (PII) açığa çıkması açısından oluşturduğu riskler konusunda giderek artan bir endişe var.

Müşterilerle yapılan son görüşmelerde çarpıcı bir fikir ortaya çıktı: CISO’ların yaklaşık dörtte üçü, güvenlik kaygılarını gerekçe göstererek kuruluşlarında GenAI araçlarının kullanımına yasaklar getirdi. Bu araçları iş süreçlerine tam olarak entegre etmeden önce güvence altına almak için aktif olarak stratejiler arıyorlar. Bu endişenin kökeni, GenAI araçlarının güçlü olmasına rağmen yanlışlıkla gizli kurumsal sırları veya hassas müşteri verilerini öğrenip ifşa edebileceği korkusundan kaynaklanıyor.

Bu karmaşık alanda ilerlemek için şirketlerin, veri korumanın diğer alanlarında köklü bir güvenlik yaklaşımı olan ‘derinlemesine savunma’ stratejisini benimsemesi gerekiyor. Bu strateji, yalnızca geleneksel uç nokta güvenliği ve veri kaybı önleme (DLP) araçlarından yararlanmayı değil aynı zamanda kullanıcı ve varlık davranışı analitiği (UEBA) gibi daha gelişmiş, yapay zeka odaklı çözümleri entegre etmeyi de içerir. UEBA, GenAI araçlarının organizasyon içinde nasıl kullanıldığına dair kapsamlı bir görünüm sağlamada çok önemli bir rol oynuyor. Bu araçların nasıl kullanıldığına ve etkileşime girdikleri verilerin doğasına ilişkin nüansları derinlemesine inceleyerek salt kullanım izlemenin ötesine geçer. UEBA, davranış kalıplarını analiz ederek anormalliklerin ve potansiyel risklerin belirlenmesine yardımcı olur ve böylece güvenlik duruşunun daha ayrıntılı ve bilinçli bir şekilde değerlendirilmesine olanak tanır.

UEBA’nın güvenlik çerçevesine dahil edilmesi, kuruluşların GenAI araç kullanımının ve bunun sonuçlarının tüm yelpazesini anlamalarına olanak tanır. Bu içgörü, yalnızca varsayımsal senaryolara dayalı değil aynı zamanda gerçek kullanım modellerine dayanan bir risk profilinin formüle edilmesi açısından çok değerlidir. CISO’ların GenAI araçlarının dağıtımı konusunda bilinçli kararlar almasına olanak tanıyarak kuruluşun yapay zeka odaklı üretkenliğin avantajlarından yararlanırken güvenlikten ödün vermemesini sağlar.

Yapay Zeka ile Düşmanlara Karşı Savunma

Yapay zeka, günümüzde artan siber güvenlik saldırılarının tek suçlusu olmasa da, kolaylaştırıcı olarak güç kazanmaya devam edecek. Genel buluta geçiş gibi diğer üretkenlik iyileştirmeleri de mevcut tehdit ortamını artırdı. Veri altyapısı sistemleri geliştikçe kuruluşlar patlayıcı ve yönetilmeyen veriler, genişletilmiş saldırı yüzeyleri ve artan çalıntı ve ele geçirilmiş kimlik bilgileri ve fidye yazılımı saldırıları gibi sorunlarla mücadele etmeye devam ediyor. Sektör her ileri adımında iki adım geri adım atıyor. Verileriniz nerede olursa olsun, kötü aktörler ona nasıl erişebileceklerini bulmak için her gün çalışıyorlar.

GenAI’nin henüz erken aşamalarında olsak da, teknolojinin hem korkuları hem de vaatleri önümüzdeki yıllarda test edilecek.

Ne yazık ki siber saldırganlar, güvenlik tehditlerinin yıkıcı gücünü artırmak için halihazırda GenAI araçlarını kötüye kullanıyor. Birçoğu yapay zekadan yararlanan büyük veri ihlallerinin sürekli olarak manşetlere çıktığını görüyoruz. Kötü aktörler, tespit edilmesi ve önlenmesi giderek zorlaşan yapay zeka destekli tehditler geliştirmeye devam edecek. Örnek olarak GenAI’nin gücüyle birleştirilen sosyal mühendislik teknikleri, büyük veri modelleri yazma stillerini ve ses kalıplarını taklit ettiğinden ikna edici kimlik avı saldırıları oluşturabilir.

Hem yapay zeka hem de insan düşmanları, şirketlerin savunma yapması gereken amansız bir güç olduğunu kanıtlıyor. Her ikisini de yenmek için güvenlik ekiplerinin iyi silahlanmış olması gerekiyor.

Siber Güvenlikte Yapay Zeka Sonrası: Dost mu Düşman mı? İlk olarak Cybersecurity Insiders’da göründü.



Source link