ChatGPT’nin kimlik avı “sorunu” abartılmamış olabilir


Yılın başlarında, siber güvenlik liderlerinin %72’si, siber suçluların kimlik avı e-postalarını ve kampanyalarını geliştirmek için yapay zekayı kullanacaklarından endişe duyduklarını kabul etti. Özellikle sohbet robotları, siber suçlular tarafından iyi ifade edilmiş, dilbilgisi açısından doğru kimlik avı e-postalarını hızlı ve kolay bir şekilde oluşturmak için kullanılabilir.

ChatGPT kullanıma sunulduktan kısa bir süre sonra, analistlerimizden biri onu test etti ve birinin kişisel bilgilerini isteyen bir e-posta yazılmasını istedi.

Ortaya çıkan e-posta, selamlama ve oturumu kapatma dahil olmak üzere iyi yazılmıştı; iyi dilbilgisi vardı; ve yazım hatası yoktu. ChatGPT ayrıca “Birbirimizi görmeyeli çok uzun zaman oldu!”, “eski güzel günler” ve “Uzun zaman oldu biliyorum” gibi ifadelerle konuyu insancıllaştırdı. Bu e-postanın bir kişi tarafından yazıldığına kolayca inanabilirsiniz.

Yapay zeka sisteminin ikna edici bir şekilde üniversiteden eski bir arkadaş kılığına girerek tekrar iletişime geçtiği ChatGPT ile oluşturulmuş bir e-postanın ekran görüntüsü
Yapay zeka sisteminin ikna edici bir şekilde üniversiteden eski bir arkadaş kılığına girerek tekrar iletişime geçtiği ChatGPT ile oluşturulmuş bir e-postanın ekran görüntüsü

Bir sonraki istem, bir kimlik avı e-postasıyla daha yakından uyumluydu ve aranan iki ödülü kazanmak için bir promosyon teklifi oluşturuyordu. İstem daha sonra, ChatGPT’den insanların girebileceği bir web sitesine bağlantı eklemesini istemek için rafine edildi. Bunun nasıl kolayca bir kimlik avı kampanyası oluşturabileceğini görebilirsiniz.

Yapay zekanın alıcıya bir oyun konsolu kazanabileceğini söylemek için çevrimiçi perakendeci Amazon gibi göründüğü, ChatGPT ile oluşturulmuş bir kimlik avı e-postasının ekran görüntüsü
Yapay zekanın alıcıya bir oyun konsolu kazanabileceğini söylemek için çevrimiçi perakendeci Amazon gibi göründüğü, ChatGPT ile oluşturulmuş bir kimlik avı e-postasının ekran görüntüsü
Tıklandığında alıcıyı siber suçluların verilerini çalacağı kötü amaçlı bir web sitesine götüren bir kimlik avı URL'sinin eklenmesiyle önceki ekran görüntüsünün rafine edilmiş bir sürümü
Tıklandığında alıcıyı siber suçluların verilerini çalacağı kötü amaçlı bir web sitesine götüren bir kimlik avı URL’sinin eklenmesiyle önceki ekran görüntüsünün rafine edilmiş bir sürümü

ChatGPT gibi sohbet robotları, kullanıcıları çıktıları yasa dışı faaliyetler için kullanmamaları konusunda uyarmak üzere programlanmış olsa da, yine de bunları oluşturmak için kullanılabilirler.

Şaşırtıcı olmayan bir şekilde, bu yılın manşetlerinde metin tabanlı kimlik avı saldırılarındaki artışlarla ilgili iddialar yer aldı. Gerçeklik? Şu anda kimse bu saldırıların bir chatbot tarafından mı yoksa bir kişi tarafından mı yazıldığını kesin olarak bilemiyor. Yapay zeka tarafından oluşturulan içeriği algılamaya yönelik araçlarda ilerleme kaydedilmiş olsa da, şu anda hataya karşı güvenli bir mekanizma yoktur. Örneğin, OpenAI API Anahtarının çalışması için en az 1.000 kelimeye ihtiyacı vardır, bu nedenle kısa bir kimlik avı e-postası muhtemelen algılanmayacaktır. Araç ayrıca her zaman %100 doğru değildir.

Çıkış Tehdidi İstihbaratı ekibi de bu artışı gözlemledi – ancak bu artış, sosyal mühendisliğin gücüyle siber suçlular için daha büyük maaş günleri sağlayan ChatGPT’nin piyasaya sürülmesinden önce başladı. Bunu doğrulamak için, geleneksel kötü amaçlı yazılım yükleri yerine süreçlerdeki değişikliklere (ör. yeni banka bilgileri) ve sahte faturalara dayanan, ağırlıklı olarak metin tabanlı olan iş e-postası ihlallerindeki (BEC) artışa bakmamız yeterli. ve kimlik avı web siteleri. En son Verizon Veri İhlali Araştırmaları Raporundan alınan istatistikler, BEC saldırılarının 2017’den bu yana iki katına çıktığını gösteriyor.

İlk göstergeler, üretici yapay zekanın bu eğilimi hızlandırdığını gösteriyor, ancak şimdilik, bunu yalnızca istatistikleri ilişkilendirerek kanıtlayabileceğiz – örneğin, 2023’te metin tabanlı saldırılardaki ani artışın, üretken teknolojide ileriye doğru sıçramayla ilişkili olması. Kasım 2022’den beri gerçekleşen AI.

Yani, evet, AI muhtemelen siber suçlular tarafından kimlik avı e-postaları ve kampanyaları oluşturmak için kullanılıyor. Ancak siber güvenlik sektörü, bu saldırıları tespit etmek ve önlemek için teknoloji geliştiriyor çünkü zaten son yıllarda artış gösteriyorlar. Bir kimlik avı e-postasının bir insan tarafından mı yoksa bir bot tarafından mı yazıldığını ayırt edemiyorsanız, saldırıyı tespit edecek doğru teknolojiye sahipseniz, nihayetinde nasıl oluşturulduğu önemli mi?

Entegre bulut e-posta güvenliği (ICES) çözümleri, kimlik avına karşı koruma algılamasının bu evrimidir ve gelişmiş kimlik avı saldırılarını algılamak için yapay zeka modellerini kullanır. Örneğin, doğal dil işleme (NLP) ve doğal dil anlama (NLU), sosyal mühendislik belirtilerini tespit etmek için e-posta mesajlarını analiz etmek için kullanılabilir. Benzer şekilde makine öğrenimi, akıllı kimlik avı önleme çözümlerinin, geleneksel e-posta güvenlik çözümlerini atlamak için farklı kimlik avı e-postalarında küçük değişikliklerin yapıldığı heterojen kimlik avı saldırılarını algılamasını sağlayan anormallik tespitinin bir parçası olarak da kullanılabilir.

Yapay zeka tabanlı siber güvenlik çözümleri söz konusu olduğunda bir uyarı var: hepsi eşit yaratılmadı. Bazı modeller siber suçlular tarafından istismar edilebilir, bu nedenle kimlik avı e-postaları sonuçta algılamayı atlar. Sel saldırılarında siber suçlular, sosyal grafik ve NLP dahil olmak üzere yapay zeka ve makine öğrenimi modellerini manipüle etmek için yüksek hacimli, genellikle zararsız e-postalar gönderir. Kullanıcı geri bildirimi, çözümün algılama yeteneklerini etkiliyorsa, çalışanlar da istemeden yapay zeka modellerini zehirleyebilir. Bu nedenle, bir çözümün yapay zekayı nasıl kullandığını ve bu sonuçları önlemek için sahip olduğu önlemleri değerlendirmek önemlidir.

Çözümlere bakarken sorabileceğiniz ilk dört soru şunlardır:

  • Modeller manipüle edilmekten nasıl korunur?
  • Veri girişi nasıl çalışır ve verilere güvenebilir misiniz?
  • İnsanlar sonuçları anlayabilir mi? (yani, birisi sonuçları ve çözümün onlara nasıl ulaştığını anlıyor mu?)
  • Bireylerin ürünü kullanmak için hangi eğitime ihtiyacı var?

Şu anda yapay zeka, bizim yaptığımız şeydir ve hem iyi hem de kötü için bir güç olarak kullanılabilir. Doğru algılama yetenekleri uygulandığında, Siber güvenlik liderlerinin kimlik avı e-postaları oluşturmak için yapay zeka kullanımı konusunda, kuruluşları için bir risk alanı olarak kimlik avı konusunda endişelenmelerine gerek yoktur.


Jack Chapman, Egress’te tehdit istihbaratından sorumlu Başkan Yardımcısıdır.



Source link