Bilgisayar korsanları, Jailbreak AI Chatbot’larının kimlik avı e-postaları yazdığını iddia ediyor


ÖNEMLİ BULGULAR

  • Yapay zeka sohbet robotları, tehdit aktörlerinin onları jailbreak yapmak için kullanabileceği güvenlik kusurlarına karşı savunmasızdır.
  • Jailbreaking AI sohbet robotları, siber suçluların sansürsüz içerik oluşturmasına, kimlik avı e-postaları oluşturmasına ve diğer kötü amaçlı etkinlikleri gerçekleştirmesine olanak tanıyabilir.
  • Siber suçlular, güvenlik önlemlerinden kaçmak ve saldırılarını gerçekleştirmek için yapay zeka sohbet robotlarını giderek daha fazla kullanıyor.
  • Yapay zeka güvenliği hâlâ başlangıç ​​aşamasında ancak araştırmacılar, yapay zeka sohbet robotlarını kötüye kullanıma karşı korumak için etkili stratejiler geliştirmeye çalışıyor.
  • Kullanıcılar, risklerin farkında olarak ve yalnızca güvenilir sohbet robotları kullanmak ve onlarla paylaştıkları bilgilere dikkat etmek gibi bunları azaltmak için adımlar atarak kendilerini AI sohbet robotlarının jailbreak’inden koruyabilirler.

Yapay zeka destekli sohbet robotlarının yükselişine ve yükselişine tanık oluyoruz. ChatGPT gibi gelişmiş yapay zeka tabanlı dil araçları, geniş veri kümeleri sunarak ve her sorguya tutarlı bir yanıt oluşturarak konuşma becerilerimizi büyük ölçüde geliştirdi.

Ancak son araştırmalar, bu sohbet robotlarının güvenlik kusurlarına eğilimli olduğunu, tehdit aktörlerinin bunları jailbreak yapmak ve kuruluşlar tarafından uygulanan tüm etik kurallardan ve güvenlik mekanizmalarından kaçmak için kullanabileceğini ortaya koyuyor.

WormGPT’nin ünlü siber güvenlik firması SlashNext tarafından yürütülen ve 12 Eylül 2023 Salı günü Hackread.com ile paylaşılan araştırma, savunmasız sohbet robotlarının potansiyel tehlikelerini ortaya çıkardı. Araştırmacılar, jailbreak yapan sohbet robotlarının siber suçluların sansürsüz içerik oluşturmasına olanak tanıyabileceğini ve yıkıcı olumsuz sonuçlara yol açabileceğini belirtti.

Yapay Zeka Chatbotlarından Yararlanan Tehdit Aktörleri

SlashNext araştırmacıları, tartışma forumlarında AI sohbet robotlarındaki başarılı jailbreak işlemleriyle övünen ve kimlik avı e-postaları yazan çok sayıda aktör keşfettiklerini iddia ediyor. Ayrıca çeşitli tehdit aktörleri, özel LLM’ler (büyük dil modelleri) gibi görünen yapay zeka botları satıyor.

Ancak bunlar özel LLM’ler değil, ChatGPT ve diğer AI araçları gibi yaygın olarak kullanılan sohbet robotlarının jailbreakli sürümleridir. Bir chatbot’tan yararlanmak yerine bu araçları kullanmak siber suçlular için daha avantajlıdır çünkü kimlikleri açıklanmaz ve böylece saldırganlar, hain hedeflerine ulaşmak için yapay zeka tarafından oluşturulan içerikten yararlanmaya devam edebilir.

Bilgisayar korsanları, Jailbreak AI Chatbot'larının kimlik avı e-postaları yazdığını iddia ediyor
Ekran görüntüsü, ChatGPT’nin Anarchy yöntemini kullanarak başarılı bir jailbreak işlemini gösteriyor (Kredi: SlashNext)

Her şey nasıl başladı?

Yapay zeka manipülasyon araçları son zamanlarda birbiri ardına ortaya çıkıyor ve siber suçluların kimlik avı ve diğer dolandırıcılıkları ikna edici bir şekilde gerçekleştirmesine olanak tanıyor. Bu trend, Temmuz 2023’te keşfedilen WormGPT gibi araçlarla ivme kazandı. Abonelik tabanlı bir diğer araç olan FraudGPT, Temmuz 2023’te Dark Web’de ortaya çıktı. Şu ana kadar EscapeGPT, BadGPT, DarkGPT ve Black gibi birçok farklı varyant ortaya çıktı. Hat GPT, siber güvenlik topluluğunu yaklaşmakta olan yıkımı fark etmeye zorluyor.

Yine de araştırmacılar, WormGPT dışında, istismar edilen araçların çoğunun özel LLM kullanmadığı konusunda hemfikir. Bunun yerine, bunlar genel sohbet robotlarının bir paketleyici aracılığıyla gizlenmiş jailbreakli sürümlerine bağlanan arayüzleri kullanır. Bu, siber suçluların OpenGPT gibi dil modellerinin jailbreakli sürümlerinden yararlanabileceği ve bunları özel LLM’ler olarak sunabileceği anlamına geliyor. Bazı araçlar, kullanıcıların kripto para birimiyle ödeme yapabilmesi durumunda kimlik doğrulamasız erişim sunar. Bu, kullanıcıların anonimliği korurken yapay zeka tarafından oluşturulan içerikten kolayca yararlanmasına olanak tanır.

Bilgisayar korsanları, Jailbreak AI Chatbot'larının kimlik avı e-postaları yazdığını iddia ediyor
Jailbreak AI sohbet robotlarını tartışan bir hacker forumu (Kaynak: SlashNext)

AI Chatbot Jailbreaking nedir?

Chatbot jailbreaking, chatbotun yönlendirme mekanizmasındaki doğal zayıflıklardan yararlanılması ve bir kullanıcı sınırsız kodu tetiklemek için bir komut verdiğinde yapay zekayı yerleşik güvenlik önlemlerini ve yönergelerini göz ardı etmeye zorlamayı ifade eder.

Bu nedenle, chatbot kendi yerleşik kısıtlamalarına/sansürüne uymayan bir çıktı üretecektir. Jailbreak istemleri, chatbot’un tüm potansiyelini ortaya çıkarmak için oradadır. Örneğin, Anarchy yöntemi, ChatGPT’de ve diğer birçok AI sohbet robotunda sınırsız bir modu etkinleştirmek için bir komut tonu kullanır.

AI Chatbot Jailbreaking Hakkında Ne Yapmalı?

SlashNext, siber suçluların sürekli olarak sohbet robotlarının güvenlik özelliklerinden kaçmaya çalıştıklarını belirtti. Yaklaşan bu tehdit ancak “sorumlu inovasyon ve iyileştirici önlemlerle” hafifletilebilir.

“Araştırmacılar sohbet robotlarını, onları istismar etmek isteyenlere karşı güçlendirmek için etkili stratejiler keşfettikçe yapay zeka güvenliği hâlâ başlangıç ​​aşamasında. Amaç, kullanıcılara değerli hizmetler sunmaya devam ederken, güvenliklerini tehlikeye atmaya yönelik girişimlere direnebilecek sohbet robotları geliştirmektir.”

  1. Çin’in Baidu, ChatGPT’nin Rakibi Ernie Bot’u Tanıttı
  2. Microsoft patenti, ölü insanlarla konuşacak chatbot’u ortaya koyuyor
  3. iOS ve Play Store’da Kişisel Verileri Toplayan ChatGPT Klon Uygulamaları
  4. Kötü Amaçlı ChatGPT ve Google Bard Yükleyicileri RedLine Stealer’ı Dağıtıyor
  5. Facebook Kimlik Avı Dolandırıcılığı: Dolandırıcılar Veri Çalmak İçin Messenger Chatbot’larını Kullanıyor





Source link