ComPromptMized adlı yeni bir çalışma, sıfır tıklamalı solucanların üretken yapay zekayı istismar ettiği, kullanıcı etkileşimi olmadan sistemlere yayıldığı ve veri hırsızlığı riskleri oluşturduğu konusunda uyarıda bulunuyor. Uzmanlar acil yapay zeka güvenlik önlemlerinin altını çiziyor.
Araştırmacılar yakın zamanda üretken yapay zeka destekli uygulamaları hedef alabilen bir bilgisayar solucanının oluşturulduğunu gösteren bulguları açıkladılar. Bu açıklama, endişelerin arttığı bir dönemde geldi. yapay zeka sistemlerinin güvenliği.
Technion – İsrail Teknoloji Enstitüsü'nden Stav Cohen, Intuit'ten Ron Bitton ve Cornell Tech'ten Ben Nassi'nin liderliğindeki ortak bir çabayla ekip, bu yeni solucanı geliştirdi ve Gemini Pro (daha önce) dahil olmak üzere popüler yapay zeka modellerine karşı test etti. Ozan AI), SohbetGPTve LLaVA.
Çalışma, bu tür teknolojinin potansiyel kötü amaçlı uygulamalarını vurgularken aynı zamanda bir uyarıyı da yineliyor: geçen yıl yayınlandı Europol tarafından yapay zeka sohbet robotlarının hızlı bir şekilde tasarlanması ve jailbreak yapılmasıyla ilgili.
Araştırma, saldırganların yapay zeka modellerini kötü niyetli girdileri kopyalamak ve zararlı faaliyetlerde bulunmak üzere manipüle etmek için bu solucandan yararlanabileceğini öne sürüyor. Endişe verici bir gösteri solucanla ilgiliydi üretken yapay zekaya saldırıyor e-posta asistanları, e-posta verilerini etkili bir şekilde çalıyor ve spam dağıtıyor.
Solucanın işleyişinin ardındaki mekanizma ilgi çekici olduğu kadar endişe vericidir. Saldırganlar, bir e-postaya belirli bir metin ekleyerek belirli e-posta uygulaması istemcilerinin veritabanlarını “zehirleyebilir”. Bu manipülasyon daha sonra ChatGPT ve Gemini gibi modellerin kötü amaçlı girdiyi kopyalamasını ve bağlamdan hassas kullanıcı verilerini çıkarmasını sağlayabilir.
onların çalışmak ComPromptMized adı verilen araştırmacılar, hem kara kutu hem de beyaz kutu erişimleri de dahil olmak üzere çeşitli senaryoları araştırdı ve solucanın etkinliğini metin ve görseller gibi farklı türdeki giriş verileri karşısında test etti. Bulgular, bu tür saldırıların gelişmekte olan ülkelere yönelik oluşturduğu potansiyel tehditlerin altını çiziyor GenAI ekosistemleri.
Bu araştırmanın sonuçları teorik kaygıların ötesine uzanmaktadır. Daha fazla şirket üretken yapay zeka yeteneklerini uygulamalarına entegre ettikçe, kötüye kullanım riski giderek daha somut hale geliyor. Kötü niyetli aktörlerin yapay zeka teknolojisini kötü amaçlarla kullanma yeteneği, yapay zeka geliştirme ve dağıtımında acil olarak sağlam güvenlik önlemlerine duyulan ihtiyacın altını çiziyor.
Beth BağlayıcıSynopsys Yazılım Bütünlüğü Grubu Yapay Zeka ve SAST Kıdemli Direktörü, bu araştırmanın önemini vurgulayarak şunları söyledi: “Bu saldırı, GenAI destekli proaktif aracıların istismar için potansiyel bir hedef olarak zayıflığını vurguluyor. Dijital etkileşimlerimizi kolaylaştırmayı vaat eden yeni yapay zeka destekli araçların yaygınlaşmasıyla birlikte, kuruluşların bu araçlara verilen izinleri dikkatli bir şekilde değerlendirmeleri ve sağlam güvenlik önlemleri uygulamaları hayati önem taşıyor.”
Araştırma, üretken yapay zeka sistemlerinin güvenlik açıklarına ilişkin değerli bilgiler sağlarken aynı zamanda çeşitli sektörlerdeki paydaşlar için bir eylem çağrısı görevi de görüyor. Yapay zeka inovasyonunun faydalarını benimsemeye devam ettikçe, ortaya çıkan tehditlere karşı tetikte olmak ve güçlü güvenlik protokollerinin geliştirilmesine öncelik vermek zorunludur.
İLGİLİ KONULAR
- OpenAI'nin ChatGPT'si Polimorfik Kötü Amaçlı Yazılım Oluşturabilir
- Kötü Amaçlı Abrax666 AI Chatbot'un Potansiyel Dolandırıcılık Olduğu Ortaya Çıktı
- Kötü Amaçlı Reklamlar, Kötü Amaçlı Reklamcılık Saldırısında Bing AI Chatbot'a Sızıyor
- WormGPT'nin ardından Yapay Zeka Odaklı Siber Suç için FraudGPT Ortaya Çıkıyor
- Araştırmacı ChatGPT ile polimorfik Blackmamba kötü amaçlı yazılımı oluşturuyor