İşte Yapay Zeka Solucanları Geliyor


OpenAI’nin ChatGPT’si ve Google’ın Gemini’si gibi üretken yapay zeka sistemleri daha gelişmiş hale geldikçe, giderek daha fazla kullanılmaya başlandı. Yeni kurulan şirketler ve teknoloji şirketleri, sizin için sıkıcı işleri tamamlayabilecek sistemlerin üzerine yapay zeka aracıları ve ekosistemler inşa ediyor: otomatik olarak takvim rezervasyonları yapmayı ve potansiyel olarak ürün satın almayı düşünün. Ancak araçlara daha fazla özgürlük tanındıkça, onlara saldırılabilecek potansiyel yollar da artıyor.

Şimdi, bağlantılı, otonom yapay zeka ekosistemlerinin risklerini gösteren bir çalışmada, bir grup araştırmacı, ilk üretken yapay zeka solucanları olduğunu iddia ettikleri bir sistemden birini yarattı; bu solucan, bir sistemden diğerine yayılabilir, potansiyel olarak verileri çalabilir veya kötü amaçlı yazılımları sisteme dağıtabilir. işlem. Araştırmanın arkasındaki Cornell Tech araştırmacısı Ben Nassi, “Bu, temel olarak, artık daha önce görülmemiş yeni bir tür siber saldırıyı yürütme veya gerçekleştirme yeteneğine sahip olduğunuz anlamına geliyor” diyor.

Nassi, araştırmacı arkadaşları Stav Cohen ve Ron Bitton ile birlikte, 1988’de internette kaosa neden olan orijinal Morris bilgisayar solucanına bir gönderme olarak Morris II adı verilen solucanı yarattı. WIRED ile özel olarak paylaşılan bir araştırma makalesinde ve web sitesinde, Araştırmacılar, yapay zeka solucanının, e-postalardan veri çalmak ve spam mesajlar göndermek için üretken bir yapay zeka e-posta asistanına nasıl saldırabildiğini gösteriyor; bu süreçte ChatGPT ve Gemini’deki bazı güvenlik korumalarını ihlal ediyor.

Halka açık bir e-posta asistanına karşı değil, test ortamlarında gerçekleştirilen araştırma, büyük dil modellerinin (LLM’ler) giderek daha çok modlu hale gelmesi, metnin yanı sıra resim ve video da oluşturabilmesi nedeniyle ortaya çıkıyor. Üretken yapay zeka solucanları henüz doğada tespit edilmemiş olsa da birçok araştırmacı, bunların yeni kurulan şirketlerin, geliştiricilerin ve teknoloji şirketlerinin endişelenmesi gereken bir güvenlik riski olduğunu söylüyor.

Çoğu üretken yapay zeka sistemi, araçlara bir soruyu yanıtlamasını veya bir görüntü oluşturmasını söyleyen metin talimatları olan istemlerle beslenerek çalışır. Ancak bu istemler sisteme karşı da silah olarak kullanılabilir. Jailbreak’ler sistemin güvenlik kurallarını göz ardı etmesine ve zehirli veya nefret dolu içeriklerin yayılmasına neden olabilir; anlık enjeksiyon saldırıları ise bir chatbot’a gizli talimatlar verebilir. Örneğin, bir saldırgan bir web sayfasında Yüksek Lisans’a dolandırıcılık yapmasını ve banka bilgilerinizi istemesini söyleyen metni gizleyebilir.

Üretken yapay zeka solucanını yaratmak için araştırmacılar, “düşmanca kendini kopyalayan istem” adı verilen yönteme yöneldiler. Araştırmacılar, bunun, üretken yapay zeka modelini yanıt olarak başka bir istem çıktısı için tetikleyen bir istem olduğunu söylüyor. Kısacası yapay zeka sistemine yanıtlarında bir dizi ek talimat üretmesi söyleniyor. Araştırmacılar, bunun büyük ölçüde geleneksel SQL enjeksiyonu ve arabellek taşması saldırılarına benzediğini söylüyor.

Solucanın nasıl çalışabileceğini göstermek için araştırmacılar, ChatGPT, Gemini ve açık kaynak LLM, LLaVA’ya bağlanan, üretken yapay zeka kullanarak mesaj gönderip alabilen bir e-posta sistemi oluşturdular. Daha sonra sistemden yararlanmanın iki yolunu buldular; metin tabanlı, kendi kendini kopyalayan bir bilgi istemi kullanmak ve bir görüntü dosyasına kendi kendini kopyalayan bir bilgi istemi yerleştirmek.



Source link