Tehdit aktörlerinin ellerinde yeni bir araç var: ChatGPT.
ChatGPT kusursuz değildir, ancak uzmanlar, siber saldırıları özelleştirme ve ölçeklendirme becerisinin işletmeleri tehdit edebileceğini düşünüyor. Yine de, ChatGPT etrafındaki aldatmaca, güvenlik endişelerini gölgeliyor.
BT uzmanlarının yarısından fazlası, ChatGPT’nin yıl içinde başarılı bir siber saldırıda kullanılacağını tahmin ediyor. bir BlackBerry anketi Kuzey Amerika, Birleşik Krallık ve Avustralya’daki 1.500 BT karar vericisinden.
Ankete göre, her 10 BT uzmanından 7’sinden fazlası ChatGPT’nin siber güvenlik için potansiyel bir tehdit olduğunu düşünüyor ve endişeleniyor.
BT departmanları potansiyel kullanım durumlarını deşifre etmeye başlarken ekiplerin de üretken yapay zekanın şirketlerini hedeflemek için nasıl kullanılabileceğinin farkında olması gerekir.
“Yeni veya ortaya çıkan herhangi bir teknoloji veya uygulamada olduğu gibi, artıları ve eksileri var” Steve Grobman, McAfee Kıdemli Başkan Yardımcısı ve CTO’su, bir e-postada söyledi. “ChatGPT, hem iyi hem de kötü aktörler tarafından kullanılacak ve siber güvenlik topluluğu, bunlardan yararlanılabilecek yöntemler konusunda tetikte kalmalıdır.”
Grobman, bir web tarayıcısına erişimi olan herkesin ChatGPT’yi kullanabileceğini, bilgi boşluklarını azaltabileceğini ve giriş engelini azaltabileceğini söyledi.
ChatGPT’nin yardımıyla tehdit aktörleri, bireysel kurbanları hedef alan, iyi yazılmış iletileri toplu olarak oluşturabilir. Grobman’a göre bu, genellikle başarılı bir saldırı olasılığını artırır.
ChatGPT’nin kullanıma sunulmasının ardından, insanlar yapay zeka tarafından oluşturulan metin ile insan tarafından yazılan metin arasında ayrım yapmakta zorlandılar. Yetişkinlerin üçte ikisinden fazlası yapamadı farkı söyle Bu ay yayınlanan McAfee verilerine göre, bir yapay zeka aracı tarafından yazılan bir aşk mektubu ile bir insan arasındaki fark ortaya çıktı.
OpenAI yayınlandı metin sınıflandırıcı araç güvenilir olmasa da kuruluşların yapay zeka tarafından oluşturulan metni tanımlamasına yardımcı olmak için. İntihal tespit şirketi Turnitin ve diğer birkaç tedarikçi firma, yapay zeka destekli yazma için de tespit yeteneklerini test etmeye başladı.
Kimlik avı ve önleme
İşletmelerin oltalama saldırılarıyla ilgili temel amacı, çalışanların rastgele bağlantılara tıklamasını veya şirket bilgilerini göndermesini engellemektir.
BT karar vericilerinin yarısından fazlası, ChatGPT’nin bilgisayar korsanlarının daha inandırıcı kimlik avı e-postaları oluşturmasına yardımcı olma yeteneğinin en önemli küresel endişe kaynağı olduğuna inanıyor.bir göre Böğürtlen anket.
Çalışanlara, ChatGPT ve diğer benzer araçların tehdit aktörleri tarafından nasıl kullanıldığı konusunda eğitim verilmesi, ihtiyatı artırabilir ve çalışanların bu tür saldırılardan kaçınmasını sağlayabilir. Paul Trulove, güvenlik yazılımı şirketi SecureAuth’un CEO’su.
Trulove bir e-postada, eğitime ek olarak, işletmelerin potansiyel saldırganların kimliklerini doğrulamasını gerektiren ve yalnızca başarılı davetsiz misafirlere sınırlı kaynaklara erişim sağlayan sıfır güven modelini benimseyebileceğini söyledi.
Trulove, bu strateji dahili direnişle karşılanabilse de, sıfır güven yoluyla erişimi yönetmenin saldırganların kurumsal sistemleri tehlikeye atmasını zorlaştırdığını söyledi.
Giriş engelini ve BT’yi gölgelemeyi azaltmak
Oltalama saldırıları tek olası kabus senaryosu değildir. VMware küresel güvenlik teknolojisi uzmanı Chad Skipper’a göre siber suçlular, kötü amaçlı yazılımlara Hizmet Olarak Kod sunmak için yapay zeka destekli araçları kullanabilir.
Skipper bir e-postada, “ChatGPT gibi teknolojilerin doğası, tehdit aktörlerinin bir kuruluşun ağına her zamankinden daha hızlı ve daha agresif bir şekilde erişmesine ve bu ağda hareket etmesine izin veriyor” dedi.
Bir BlackBerry anketine göre, BT karar alıcılarının neredeyse yarısı, ChatGPT’nin daha az deneyimli bilgisayar korsanlarının teknik bilgilerini geliştirmelerini sağlama yeteneğinin en önemli küresel endişe olduğuna inanıyor.
Skipper, geçmişte siber suçluların bir ağa erişmesinin saatler sürdüğünü, ancak artık kodun saniyeler içinde üretilebileceğini söyledi.
Tehditler, gölge BT aracılığıyla bir kuruluş içinden de gelebilir.
İşletmeler, çalışanlara fikri mülkiyet korumasını hatırlatmalıdır. Caroline Wongsızma testi şirketi Colbalt’ta güvenlik, topluluk ve insan ekiplerine liderlik eden baş strateji sorumlusu.
Wong bir e-postada, “OpenAI, kullanıcıları gizli bilgileri paylaşmamaları konusunda uyarıyor, bu nedenle, onu kullandıkları her şeyin halka açık olarak kabul edilmesi gerektiğini yinelemek önemlidir” dedi.
Çalışanların üçte ikisinden fazlası kullandıklarını söyledi AI araçları olmadan Yaklaşık 11.800 Fishbowl kullanıcısıyla yapılan bir Fishbowl anketine göre, önce patronlarını bilgilendirmek.
“Riski azaltmak ve gölge BT sorunlarını çözmek için kuruluşlar ışıkları yakmalı ve her işlem ve pakette görünürlük kazanmalı, segmentasyon ile patlama yarıçapını sınırlamalı, gelişmiş tehditler ve anormallikler için bant içi trafiği denetlemeli, uç nokta ve ağ tespitini entegre etmeli ve cevap ver ve sürekli tehdit avı yap,” dedi Skipper.