Güvenlik görüşmeleri: AI’yı iyi ve kötü için kullanmak


Yapay zeka (AI) yükselişte. İnsanlar başlangıcını tartışıyor Terminatörinsanlığı yok eden yapay zeka tarzı – ve sadece bir şaka olarak değil. Daha az kıyamet bakış açısına sahip olanlar, yapay zekanın geleneksel olarak insanlar tarafından yürütülen çok büyük bir iş dilimini alma riskini düşünüyor. Bu da sivil huzursuzluğa, bir yapay zeka alt sınıfına ve Deli Max toplumsal değerlerde stil dökümü.

Tercih ettiğiniz film benzetmesi ne olursa olsun, AI’nın hem iyi hem de kötü birçok şeyi otomatikleştireceğine şüphe yok.

Max Heinemeyer, AI’nın farklı insanlar için pek çok şey ifade edebilecek sözlerden biri olduğuna inanıyor. Darktrace baş ürün sorumlusu, “Yapay zeka saldırganlar, kötü adamlar ve kötü kızlar tarafından kullanılabilir” diyor. Risk perspektifinden şöyle diyor: “Yapay zeka masaya çok fazla otomasyon getiriyor.”

Analistlerin saldırıları gerçek zamanlı olarak izlediği, neyin hedeflendiğini belirlediği ve hemen saldırı vektörünü engellemek için yarıştığı bir güvenlik operasyonları merkezi hayal edin. AI, hem saldırıları otomatikleştirme hem de savunmayı otomatikleştirme açısından her şeyi otomatikleştiriyor: “Saldırıları tespit etmek için insanı artırabileceğiniz savunma alanında bunu görüyoruz. Daha sonra makine öğrenimi sistemleriyle bunlara çok kolay bir şekilde yanıt verebilirsiniz.”

Heinemeyer eskiden etik bir bilgisayar korsanıydı. Darktrace’te neler olduğunu tartışırken şunları söylüyor: “Sızma testi uzmanları ve kırmızı ekip, bir saldırganın saldırılarını ölçeklendirmek ve onları daha başarılı kılmak için süreçlerini daha verimli hale getirmek amacıyla makine öğrenimini nasıl kullanabileceği konusunda çok düşünüyor.”

Ancak şimdi yapay zeka otomasyonun ötesine geçti. Bazı endüstri uzmanlarının nihayetinde geniş ölçekli yapay zekanın benimsenmesine yol açan devrilme noktasını temsil ettiğini düşündüğü büyük dil modellerine bakıldığında Heinemeyer, kod yazabilen bir yapay zekanın saldırganlara çok daha ısmarlama ve uyarlanmış, sofistike saldırılar geliştirme fırsatı sunduğuna inanıyor. Hatasız gramer içeren ve imla hatası olmayan son derece kişiselleştirilmiş kimlik avı mesajları hayal edin, diyor.

Müşterileri için, Darktrace’in iş e-posta verilerinde normalin nasıl göründüğünü öğrenmek için makine öğrenimini kullandığını söylüyor: “Tam olarak nasıl iletişim kurduğunuzu, e-postalarınızda hangi sözdizimini kullandığınızı, hangi ekleri aldığınızı, kiminle konuştuğunuzu ve bunun ne zaman olduğunu öğreniyoruz. dahili veya harici. Birisinin sizin için alışılmadık bir e-posta gönderip göndermediğini tespit edebiliriz.”

Sofistike saldırılar önemsiz hale geliyor

ChatGPT gibi büyük bir dil modeli, halka açık internetteki her şeyi okur. Bunun anlamı, insanların sosyal medya profillerini okuyacak, kiminle etkileşim kurduklarını, arkadaşlarını, neyi sevip neyi sevmediklerini görmek olacak. Bu tür AI sistemleri, web üzerinden toplanabilecek halka açık bilgilere dayanarak birini gerçekten anlama yeteneğine sahiptir. Bu, Heinemeyer ve Darktrace’teki araştırmacıların araştırmaya başladıkları bir alandır: “Geçen yıl Aralık ayında ChatGPT’nin bir milyon kullanıcıya ulaştığı patlamadan bu yana bazı veriler topladık.”

Darktrace, e-posta saldırılarının çok daha karmaşık ve kişiselleştirilmiş hale geldiğini keşfetti. “İnsanların bu dolandırıcılığı ve saldırıları fark etmesi sadece zor değil.” İmkansız hale geldiği konusunda uyarıyor: “İmla hatalarına ve jenerik dolandırıcılıklara dikkat etmelerini söylerseniz, insanlara ne hakkında eğitim vermiş olursunuz? O günler geride kaldı” çünkü artık internette çok fazla bağlamsal bilgi var.”

Heinemeyer’in açıkladığı gibi, halka açık internet verileri üzerinde eğitilen büyük dil modellerinin mevcudiyeti, hedefli saldırılar oluşturmak için gereken teknik becerileri de azaltır. Olası bir saldırgan, bir işletmeye mızrakla kimlik avı yapmak isteyebilir ve yapay zeka bunu bir dizi göreve ayırır.

“Orada kimin çalıştığını anlamam gerekiyor. Bunu öğrenmek için LinkedIn’i veya Facebook’u kullanabilirim. Çalışanların iletişim bilgilerini sosyal medya profillerinden toplamam gerekiyor. Daha sonra, bir çalışanın bir bağlantıya tıklamasını sağlamak için ısmarlama bir e-posta yazmam ve daha önce görülmemiş bir kötü amaçlı yazılım parçası oluşturmam gerekiyor. Bir saldırgan olarak, belirli bir beceri gerektiren tüm bunları kendim yapmak zorunda kalacağım. Teknoloji hala gelişiyor ve kusurları ve hataları var, ancak artık hedefli saldırılar oluşturmak çok daha kolay,” diye uyarıyor Heinemeyer.

Çalışanlarınızı eğitmek istiyorsunuz – onlar son savunma hattıdır.

Max Heinemeyer, Darktrace

resim yapmak istemezken Terminatör Heinemeyer, AI senaryosunda, özellikle e-posta saldırılarında bir paradigma değişiminin gerçekleştiğine inanıyor. Daha geniş kurumsal yazılım endüstrisinin ciddiye almaya başlaması gereken birkaç alan vardır. Örneğin, gider yönetimi sisteminden veya İK sisteminden gelen bir e-posta, herkesin deneyimlediği bir şeydir. Kullanıcı kimlik doğrulaması için birçok kurumsal üründe iki faktörlü kimlik doğrulama bulunurken, çoğu kurumsal yazılım, bilgisayar korsanlarının oldukça kolay bir şekilde anlayabileceği, kullanıcının dahili e-posta adresine güvenir. Ticari kurumsal yazılımlar tarafından oluşturulmuş gibi görünen e-posta mesajlarını kullanarak kimlik avı saldırıları oluşturmak önemsiz bir mesele haline geliyor.

Heinemeyer, “Her yerde var” diyor. Dahili sistemler güvenli olsa bile, saldırganlar tedarik zincirlerini hedef alabilir ve alacak ve dahili güvenlik önlemlerini atlatmak için iş ortaklarını kullanabilir. “Sanırım her zaman derinlemesine savunma yapmak istiyorsun,” diyor. “Çalışanlarınızı eğitmek istiyorsunuz – onlar son savunma hattı.”

Endüstri liderlerini kullanıcılara sunulan BT sistemlerini iyileştirmeye çağırıyor: “Her fatura dolandırıcılığını ve her dahili sistem dolandırıcılığını tespit etmeleri için insanlara baskı yapamazsınız. Bu saldırılara nasıl karşı koyacaksınız?”

AI, son derece kişiselleştirilmiş saldırıları dağıtmak için kullanılma potansiyeline sahiptir. Heinemeyer’e göre endüstrinin, pek doğru görünmeyen veya normal davranışlarla çelişiyor gibi görünen şeyleri tespit etmek için kullanıcıları daha iyi anlayabilecek yapay zeka sistemleri geliştirmesi gerekiyor.



Source link