Black Hat ve DEF CON’da Yapay Zekada Gerçekçilik Hüküm Sürüyor



Bu, BT sektörü için bile hızlı bir evrim oldu. Black Hat’in 2022 baskısında CISO’lar “AI” harflerini duymak istemediklerini söylüyorlardı; RSAC 2023’te neredeyse herkes üretken yapay zekadan bahsediyor ve bunun güvenlik endüstrisi için işaret edeceği büyük değişiklikler hakkında spekülasyon yapıyordu; Black Hat USA 2023’te hâlâ üretken yapay zeka hakkında konuşuluyordu ancak konuşmalar, teknolojinin insan operatörlere yardımcı olarak yönetilmesi ve yapay zeka motorlarının sınırları dahilinde çalışmasına odaklanıyordu. Genel olarak nefes kesen abartıdan daha kullanışlı gerçekçiliğe çok hızlı bir geçiş olduğunu gösteriyor.

Gerçekçilik memnuniyetle karşılanıyor çünkü üretken yapay zeka önümüzdeki yıllarda kesinlikle siber güvenlik ürünlerinin, hizmetlerinin ve operasyonlarının bir özelliği olacak. Doğru olan nedenler arasında siber güvenlik uzmanı eksikliğinin önümüzdeki yıllarda da sektörün bir özelliği olacağı gerçeği yer alıyor. Üretken yapay zeka kullanımının, FTE’leri (tam zamanlı eşdeğerler veya tam zamanlı çalışanlar) değiştirmek yerine siber güvenlik profesyonellerinin etkinliğini artırmaya odaklandığı göz önüne alındığında, hiç kimsenin, insanları üretken yapay zeka ile değiştirerek yetenek açığını hafifletmeyi tartıştığını duymadım. En çok duyduğum şey, her siber güvenlik profesyonelini daha etkili hale getirmek için üretken yapay zekanın kullanılmasıydı; özellikle de bu daha az deneyimli analistler daha fazla bağlam, daha fazla kesinlik sağlayabildiğinden, 1. Kademe analistleri “1.5. Kademe analistler” kadar etkili kılmak konusunda. ve uyarıları zincirde yukarıya taşırken daha üst düzey analistler için daha kuralcı seçenekler

Sınırlamaları Bilmeniz Gerekir

Üretken yapay zekanın nasıl kullanılacağına ilişkin konuşmanın bir kısmı, teknolojinin sınırlamalarının kabul edilmesiydi. Bunlar “muhtemelen gösterilen gelecekten kaçacağız” değildi. Matris” Tartışmalar, teknolojiyi kullanan kuruluşlar için meşru hedefler olan yetenekler ve kullanımlar hakkında samimi konuşmalardı.

Tartışıldığını duyduğum sınırlamalardan ikisinden burada bahsetmeye değer. Bunlardan biri modellerin nasıl eğitildiğiyle ilgili, diğeri ise insanların teknolojiye nasıl tepki verdiğiyle ilgili. İlk sayıda, hiçbir yapay zeka dağıtımının, üzerinde eğitim aldığı verilerden daha iyi olamayacağı konusunda büyük bir fikir birliği vardı. Bunun yanı sıra, daha büyük veri kümelerine yönelik baskının mahremiyet, veri güvenliği ve fikri mülkiyet korumasıyla ilgili endişelere yol açabileceğinin kabul edilmesi de vardı. Giderek daha fazla şirketin üretken yapay zeka ile birlikte “alan uzmanlığı” hakkında konuştuğunu duyuyorum: Bir yapay zeka örneğinin kapsamını tek bir konu veya ilgi alanıyla sınırlamak ve bu konudaki istemler için en iyi şekilde eğitildiğinden emin olmak. Önümüzdeki aylarda bu konuda daha fazlasını duymayı bekliyoruz.

İkinci sınırlamaya “kara kutu” sınırlaması denir. Basitçe söylemek gerekirse, insanlar sihire güvenmeme eğilimindedir ve yapay zeka motorları çoğu yönetici ve çalışan için sihrin en derin türüdür. Yapay zekadan elde edilen sonuçlara güveni artırmak için güvenlik ve BT departmanlarının modellerin nasıl eğitildiği, oluşturulduğu ve kullanıldığına ilişkin şeffaflığı genişletmesi gerekecek. Üretken yapay zekanın öncelikli olarak insan işçilere yardımcı olarak kullanılacağını unutmayın. Eğer bu işçiler yönlendirmelerden aldıkları yanıtlara güvenmezse, bu yardım inanılmaz derecede sınırlı olacaktır.

Şartlarınızı Tanımlayın

Her iki konferansta da kafa karışıklığının hala belirgin olduğu bir nokta vardı: Birisi “AI” derken ne demek istiyordu? Çoğu durumda, insanlar teknolojinin olanaklarını tartışırken, sadece “Yapay Zeka” deseler bile, üretken (veya büyük dil modeli diğer adıyla LLM) yapay zekadan bahsediyorlardı. İki basit mektubu duyan diğerleri, yapay zekanın yıllardır ürün veya hizmetlerinin bir parçası olduğuna işaret edeceklerdi. Bu kopukluk, bir süreliğine yapay zeka hakkında konuşurken terimleri tanımlamanın veya çok spesifik olmanın kritik önem taşıdığı gerçeğini vurguladı.

Örneğin, yıllardır güvenlik ürünlerinde kullanılan yapay zeka, üretken yapay zekaya göre çok daha küçük modeller kullanıyor, yanıtları çok daha hızlı üretme eğiliminde ve otomasyon için oldukça kullanışlı. Başka bir deyişle, tekrar tekrar sorulan çok spesifik bir sorunun cevabını çok hızlı bir şekilde bulmak için kullanışlıdır. Öte yandan üretken yapay zeka, devasa veri kümelerinden oluşturulan bir modeli kullanarak daha geniş bir dizi soruya yanıt verebilir. Ancak, onu otomasyon için mükemmel bir araç haline getirecek kadar hızlı bir şekilde sürekli olarak yanıt üretme eğiliminde değildir.

Çok daha fazla konuşma yapıldı ve çok daha fazla makale olacak, ancak LLM AI, siber güvenlikte bir konu olarak kalmaya devam edecek. Gelecek konuşmalara hazır olun.



Source link