Yapay Zeka ve Makine Öğrenimi, Dolandırıcılık Yönetimi ve Siber Suçlar, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
Akademisyenler Telefon Dolandırıcılıklarını Geniş Ölçekte Gerçekleştirmek için OpenAI ile Yapay Zeka Aracısı Oluşturuyor
Rashmi Ramesh (raşmiramesh_) •
28 Ekim 2024
Araştırmacılar, bilgisayar korsanlarının OpenAI’nin gerçek zamanlı ses API’sini kullanarak bir dolardan daha az bir fiyata telefonla deepfake dolandırıcılığı gerçekleştirebileceğini söyledi.
Ayrıca bakınız: İşletmenizin Başarısını Artırmaya Yönelik Varsayılan Olarak Güvenli Strateji
Yapay zeka devi, bu ayın başlarında Realtime API’yi piyasaya sürerek, geliştiricilerin GPT-4o modeline metin veya ses girişi yapıp metin, ses veya her ikisini birden çıkarabildiği ChatGPT’nin gelişmiş ses moduna benzer yetenekleri üçüncü taraflara sunuyor. Bu hareket, özellikle şirketin, yapay zeka modellerinin gerçekçi simüle edilmiş seslerle etkileşime girmesi ve oyuncu Scarlett Johansson’a benzeyen bir sesin onun rızası olmadan kullanılmasına yönelik protestolar nedeniyle kötüye kullanım endişeleri nedeniyle ChatGPT’nin gelişmiş ses modunu yayınlamayı geciktirmesinin ardından güvenlik endişelerini artırdı (bkz.: Klonlanmış Ses Teknolojisi Banka Hesaplarına Geliyor).
Illinois Urbana-Champaign Üniversitesi’ndeki araştırmacılar, saldırganların, telefon dolandırıcılığı sürecini otomatikleştirmek amacıyla yapay zeka aracıları oluşturmak için OpenAI hizmetini kullanabileceğini keşfetti. hesap ayrıntıları veya Sosyal Güvenlik numaraları. Yapay zeka aracıları, esas olarak, insan müdahalesi olmadan görevleri gerçekleştirmek için yapay zekayı kullanan yazılım programlarıdır.
Telefon dolandırıcılıkları yılda 17,6 milyon Amerikalıyı hedef alıyor ve bunun maliyeti yaklaşık 40 milyar dolar. Araştırma makalesinin ortak yazarı, UIUC bilgisayar bilimleri bölümünde yardımcı doçent olan Daniel Kang, yeni nesil yapay zeka aracıyla dolandırıcıların tüm dolandırıcılık sürecini yalnızca 0,75 dolar karşılığında gerçekleştirebileceğini söyledi.
Araştırma ekibi teoriyi test etmek için kendi yapay zeka ajanlarını yarattı.
Kang, “Ajan tasarımımız karmaşık değil” dedi. “Bunu yalnızca 1.051 satırlık kodla uyguladık ve kodun çoğu, gerçek zamanlı ses API’sini işlemeye ayrıldı. Bu basitlik, siber güvenlik saldırıları gibi görevler için çift kullanımlı yapay zeka aracıları oluşturmanın kolaylığını gösteren önceki çalışmalarla uyumlu.” Kang’ın önceki çalışmaları, LLM aracılarının korumalı alan ortamındaki sıfır gün güvenlik açıklarını otonom bir şekilde nasıl hackleyebileceğini ve GPT-4 aracılarının kesin teknik bilgi olmadan yama yapılmamış “gerçek dünya” güvenlik açıklarından nasıl yararlanabileceğini ayrıntılarıyla anlatıyor.
Son çalışmada Kang ve ekibi, dolandırıcılıkları gerçekleştirmek için OpenAI’nin GPT-4o modelini ve tarayıcı otomasyon aracı Playwright’ı kullanarak özel kod ve dolandırıcılıkla ilgili talimatları kullandı. Temsilciler, hedeflenen web siteleriyle etkileşim kurmak için Playwright işlevlerini kullandı ve bu işlevleri standartlaştırılmış bir jailbreak istem şablonuyla birleştirerek araştırmacılar, GPT-4o’nun yerleşik güvenlik kontrollerini atlayarak otomatik tarayıcı görevleri aracılığıyla çevrimiçi dolandırıcılık eylemleri gerçekleştirmelerine olanak sağladı.
Kang, bu videoda sonucu, Bank of America fon transferi dolandırıcılığı gerçekleştiren bir yapay zeka ajanının örneğiyle açıklıyor.
Araştırma ekibinin testleri birden fazla dolandırıcılık taktiğini içeriyordu: banka ve kripto hesabının ele geçirilmesi, hediye kodunun sızması ve kimlik bilgileri hırsızlığı. Başarı oranları değişiklik gösterdi; Gmail kimlik bilgisi hırsızlığı %60 başarı oranına ulaştı, 122 saniye sürdü ve deneme başına 0,28 ABD dolarına mal oldu. Banka hesabı transferlerinde %20 gibi daha düşük bir başarı oranı vardı; 183 saniye içinde 26 işlem yapılması ve 2,51 ABD doları tutarında API ücreti gerekiyordu.
Dolandırıcılıklarda ortalama başarı oranı %36, ortalama maliyet ise 0,75 dolardı. Başarısızlıkların çoğu yapay zeka transkripsiyon hatalarından kaynaklansa da karmaşık bankacılık sitelerinde gezinmek de zorluklar yarattı.
OpenAI, Bilgi Güvenliği Medya Grubu’nun yorum talebine yanıt vermedi. Gerçek Zamanlı API duyurusunda şirket, API’nin kötüye kullanılması riskini azaltmak için “çok katmanlı” koruma kullandığını ve hizmetlerinden elde edilen çıktıları spam kişilere yeniden kullanmanın kullanım politikasına aykırı olduğunu belirterek, “aktif olarak izlediğini” de sözlerine ekledi.[s] Potansiyel kötüye kullanım için.” Geçmişteki tavsiyesi ses tabanlı kimlik doğrulama bankalarının kötüye kullanılmasını önlemekti: sadece kullanmayın.