ChatGPT, siber güvenlik için çoğu kişinin düşündüğünden daha büyük bir tehdittir


Ücretsiz olarak kullanılabilen ChatGPT adlı dil üreten bir yapay zeka modeli interneti kasıp kavurdu. AI, BT ve güvenlik ekiplerinin daha verimli olmasına yardımcı olma potansiyeline sahip olsa da, tehdit aktörlerinin kötü amaçlı yazılım geliştirmesine de olanak tanır.

Ivanti’nin Baş Güvenlik Sorumlusu Daniel Spicer, Help Net Security ile yapılan bu röportajda bu teknolojinin siber güvenlik için ne anlama geldiğinden bahsediyor.

ChatGPT siber güvenlik tehdidi

Yapay zekanın siber güvenliğe uygulanmasıyla ilgili bazı endişe nedenleri nelerdir?

Teknoloji endüstrisi, metin, video veya ses içeriği üretmek için bir komuta veya sorguya yanıt veren üretken yapay zeka oluşturmaya odaklanmıştır. Bu tür yapay zeka, anlayış sağlamak için verileri ve bilgileri analiz edemez ve bağlamsallaştıramaz.

Şu anda, ChatGPT ve DALL-E gibi üretken yapay zekanın değeri, tehdit aktörlerinin lehine orantısız. Üretken yapay zeka, size tam olarak istediğiniz şeyi verir; bu, kimlik avı e-postaları hazırlarken kullanışlıdır. Bilgi Güvenliği, bilgi alabilen, ek bağlamla geliştirebilen ve anlayışına dayalı olarak bir sonuca varabilen yapay zekaya ihtiyaç duyar.

Bu nedenle, üretici yapay zekanın adreslediği kullanım senaryoları, tehdit aktörleri için son derece çekicidir. AI’nın tehdit aktörleri tarafından uygulanmasına ilişkin bariz bir endişe, sosyal mühendislikle ilgilidir. AI, minimum çabayla çok büyük miktarda karmaşık kimlik avı e-postası oluşturmayı mümkün kılar. Ayrıca şaşırtıcı derecede gerçekçi sahte profiller oluşturabilir. Daha önce LinkedIn gibi makul ölçüde bot içermediği düşünülen yerler bile artık profil resimlerini bile içeren ikna edici profillere sahip. Ve etkilerini yeni yeni görmeye başlıyoruz.

Tehdit aktörlerinin kötü amaçlı yazılım geliştirmek için ChatGPT kullandığını da gördük. ChatGPT’nin kod yazma yeteneğinin kalitesi konusunda karışık sonuçlar olsa da, kod geliştirmede uzmanlaşmış üretken yapay zeka, kötü amaçlı yazılım geliştirmeyi hızlandırabilir. Sonunda, güvenlik açıklarından daha hızlı yararlanmaya yardımcı olduğunu göreceğiz – bir güvenlik açığının ifşa edilmesinden sonra günler yerine saatler içinde.

Öte yandan yapay zeka, BT ve güvenlik ekiplerinin daha verimli ve etkili olmalarına yardımcı olma potansiyeline sahiptir ve otomatik ve/veya yarı otomatik güvenlik açığı tespiti ve iyileştirmenin yanı sıra risk tabanlı önceliklendirme sağlar. Bu, verileri analiz edebilen yapay zekayı, kaynak kısıtlamalarıyla karşılaşan BT ve güvenlik ekipleri için çok umut verici kılıyor, ancak ne yazık ki, bu tür bir araç henüz mevcut değil ve mevcut olduğunda, “normal” anlaması için gereken eğitim nedeniyle uygulanması karmaşık olabilir. ” belirli bir ortamda.

Sektörün artık dikkatini, savunucuların büyük miktarda veriyi analiz etmesine ve yorumlamasına yardımcı olacak yapay zeka oluşturmaya çevirmesi gerekiyor. Yapay zeka araçlarının anlayabilmesi konusunda büyük gelişmeler görene kadar, günümüzün araçları onların gereksinimlerini karşıladığı için saldırganlar avantaja sahip olmaya devam edecek.

ChatGPT, kötü niyetli kullanımı önlemek için uygulanan kontrollere sahiptir. Bu kontroller siber suçluları uzakta tutacak kadar iyi mi?

Tek kelimeyle, hayır. Şimdiye kadar, ChatGPT’nin uyguladığı kontroller etkisizdir. Örneğin, araştırmacılar, ChatGPT’ye bir soru sorma şeklinizin, kötü niyetli istekleri reddetmedeki etkinliği de dahil olmak üzere yanıtını önemli ölçüde değiştirdiğini bulmuşlardır. Üretken bir yapay zeka aracına verdiğiniz komutlara bağlı olarak, bir kötü amaçlı yazılım saldırısının tüm adımlarını parça parça bir araya getirmek mümkündür. Bu senaryonun olumlu yönlerinden biri, ChatGPT’nin şu anda iyi kod yazmamasıdır – ancak bu durum değişecektir.

ChatGPT’nin dağıtımı, büyük bir demo deneyimi olarak görülmelidir. Bu onların beta lansmanı. Üretken yapay zeka gelişmeye devam edecek – kimlik avı saldırıları için çıtayı zaten düşürdü – ve gelecekte teknolojinin kötü amaçlı yazılım geliştirebilecek daha iyi sürümlerine sahip olacağız.

Bu, kötü amaçlı yazılım geliştiricileri ile AV/EDR satıcıları arasındaki silahlanma yarışını değiştirecek çünkü kod odaklı yapay zeka, tasarımı geleneksel paketleme hizmetlerinden daha önemli ölçüde değiştirmek için kodu manipüle edebilir.

Cini şişeye geri koyamayız. Saldırı cephaneliğinde üretken yapay zeka kullanan tehdit aktörleri bir olasılıktır ve şimdi bu yeni tehdide karşı nasıl savunma yapacağımıza odaklanmamız gerekiyor.

ChatGPT, teknik bilgisi olmayan saldırganlar tarafından kötüye kullanılabilir mi?

ChatGPT’nin, tehdit aktörleri için beceriye dayalı giriş maliyetini önemli ölçüde azaltacağını söylemek yanlış olmaz. Şu anda bir tehdidin karmaşıklığı, az çok tehdit aktörünün karmaşıklığına bağlıdır, ancak ChatGPT, kötü amaçlı yazılım alanını, bir gün ağırlıklarının çok daha fazlasını kolayca yumruklayabilecek yepyeni bir çaylak tehdit aktörleri düzeyine açtı. .

Bu endişe verici, çünkü yalnızca potansiyel tehditlerin hacmini ve potansiyel tehdit aktörlerinin sayısını artırmakla kalmıyor, aynı zamanda ne yaptıkları hakkında çok az fikri olan veya hiçbir fikri olmayan insanların da mücadeleye katılma olasılığını artırıyor. Kötü amaçlı yazılım alanında bile benzeri görülmemiş bir düzeyde doğal bir umursamazlık söz konusudur.

Ancak bunun hala zorlukları var. Teknolojinin başarılı olduğunu bildiğimiz için yinelemeler ve iyileştirmeler göreceğiz.

Kullanıcıların güvenlik açıklarını bulan araçlara bağlanabilecekleri ChatGPT’nin gelecekteki bir sürümünde ne olacak?

Siber güvenlik dünyası, çok sayıdaki kod güvenlik açıklarını kontrol altında tutmakta zaten zorluklar yaşıyor. AI, güvenlik açıklarını bulma konusunda hem daha hızlı hem de daha akıllı olduğu için bu sayıları daha da yükseltecek. AI kodlayıcılarla birleştiğinde, yeni bulunan güvenlik açıklarının silah haline getirildiğini günler değil dakikalar içinde görebildik.

Açık olmak gerekirse, AI şu anda daha iyi veya daha hızlı değil, ancak bunun olmasını bekliyoruz. Bir gün güvenlik açıklarının tespit edilmesinin, güvenlik açıklarının silah haline getirilmesinin ve yükün yapay zeka tarafından ve insan müdahalesi olmadan yapıldığını göreceğiz.

Check Point araştırmacıları, ChatGPT’nin nasıl makul bir kimlik avı e-postası oluşturabileceğini gösterdi. Daha fazla saldırgan yapay zekayı kullanmaya başladığında tehditlerin nasıl gelişmesini bekliyorsunuz?

Yine yapay zeka, sınırlı teknoloji bilgisine sahip kişilerin büyük miktarlarda gerçekçi kimlik avı saldırıları ve sahte profiller oluşturmasını daha hızlı ve daha erişilebilir hale getirdi. Bu giriş kapısı nispeten yeni olduğu için, bu noktada çaylak tehdit aktörleri arasında biraz herkes için ücretsiz. Ancak tehdit aktörleri yapay zeka konusunda daha rahat hale geldikçe, tehdit aktörleri erişim ve önem kazanmak için birbirleriyle rekabet ettikçe karmaşıklığın arttığını göreceğiz.

Gelecekte, kimlik avı e-postası hazırlamaktan başlayarak tüm saldırı zincirini tamamlayabilen yapay zekaya sahip olacağız. Yapay zekanın, bir ortamın kapsamını belirlemek ve fidye yazılımı için bir kuruluşa giden en iyi yolu hızlı bir şekilde belirlemek için hazır araçları kullanabilecek olması hiç de abartılı değil. Ağı, düzeni ve mimariyi belirleyebilecek ve ardından savunmacılar tarafından tespit edilmekten kaçınmak için faydalı yükleri gizlemek için alet zincirini manipüle edebilecek. Üstelik kimsenin başka bir düğmeye basmasına gerek kalmadan.

Diğer taraftakiler için iyi bir haber değil.

Daha fazla ChatGPT içeriği:



Source link