Filigran Oluşturma Üretken Yapay Zeka: Heyecan mı, Her Şeyi Tedavi mi?


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Uzmanlar Tekniğin İyi Bir Başlangıç ​​Olduğunu Ancak Güvenliği Garanti Edemeyeceğini Söylüyor

Rashmi Ramesh (raşmiramesh_) •
17 Ekim 2023

Filigran Oluşturma Üretken Yapay Zeka: Heyecan mı, Her Şeyi Tedavi mi?
Resim: Shutterstock

Biden yönetiminin, teknoloji yöneticilerinin yapay zeka geliştirmede yerine getirmeyi taahhüt ettikleri bir dizi gönüllü taahhütün çığırtkanlığını dinlediğinizde tek bir kelimenin sık sık gündeme geldiğini duyacaksınız: Filigranlama.

Ayrıca bakınız: Güvenlik Operasyon Merkezini Modernleştirmeye Yönelik 5 İpucu

Filigranlama, düzenlemenin başlangıcı olarak hizmet etmesini umduğu Beyaz Saray güvenilirlik girişiminin temel bir parçasıdır, ancak aynı zamanda şirketleri yapay zeka ürünlerinin güvenliğini garanti altına alacak adımları gözlemlemeye bağlar. Beyaz Saray personeli ile teknoloji endüstrisi arasında çok sayıda üst düzey toplantıyı içeren Beyaz Saray çalışmasına katılanlar arasında Google, Meta, Amazon, Microsoft ve OpenAI yer alıyor (bkz: 7 Teknoloji Firması Yapay Zekayı Güvenli ve Emniyetli Hale Getirmek İçin Beyaz Saray’a Söz Verdi).

Yapay zeka uzmanlarına göre sorun, filigranın başarılı olduğu kadar başarısız olma ihtimalinin de yüksek olması. DeepMediaAI’nin kurucu ortağı ve CEO’su Rijul Gupta, Information Security Media Group’a şöyle konuştu: “Bu geniş alanda manuel olarak filigran ekleme kavramı, kumsaldaki her bir kum tanesini titizlikle boyamak gibi göz korkutucu bir göreve benzetilebilir.”

Filigranlamanın ardındaki fikir, yapay zeka tarafından oluşturulan malzemenin tam da yapay zeka tarafından oluşturulduğuna dair bir sinyal göndermektir. Sahte ama yeterince gerçekçi üretken yapay zeka içeriği, içerik bekçilerinin durdurabileceğinden daha hızlı yayılıyor. Eğer bir kısmı görünüyor ya da bariz bir şekilde sahte geliyorsa, öyle olmayana kadar bekleyin. Dolayısıyla filigranlama, üretken yapay zeka algoritmaları kullanılarak üretilen içeriğe ince “gürültü” katan bir tekniktir; bu teknik, materyalin kullanıcılarının materyalin kaynağını belirlemesine ve potansiyel olarak dezenformasyonu, derin sahtekarlıkları ve sahtekarlığı engellemesine olanak tanır.

Filigranlamanın ardındaki varsayım, içeriğe zarar vermeden gürültünün giderilemeyeceğidir. Kanada Waterloo Üniversitesi’nden Profesör Florian Kerschbaum ve Waterloo Siber Güvenlik ve Gizlilik Enstitüsü üyesi, durumun mutlaka böyle olmadığını söyledi.

“Soru, filigranı kaldırmak için ne kadar değişiklik yapılması gerektiğidir” dedi. Filigran kaldırma araçları halihazırda açık ve darknet pazarlarında mevcuttur ve birçoğu ücretsizdir.

Kerschbaum, ekibinin “birçoğu ticari plan olarak hizmet veren akademik planların çoğunu” test ettiğini söyledi. Filigranlama algoritması biliniyorsa, elle tasarlanan modellerin çok küçük değişikliklerle atlatılabileceğini ve gizli bir anahtara sahip olmanın bile içeriği kurcalanmaya karşı korumadığını söyledi.

Maryland Üniversitesi’ndeki başka bir araştırma ekibi, dijital görüntüler için filigranlama tekniklerinin güvenilirliğini test etti ve bunları oldukça kolay bir şekilde kırdı. Ekip, filigranları kaldırabilecek bir model ikame düşman saldırısı geliştirdi. Ayrıca mevcut filigranlama yöntemlerinin, saldırganın filigranlı olarak tanımlanan gerçek görüntülere sahip olmayı hedeflediği sahtekarlık saldırılarına karşı savunmasız olduğunu da gösterdi.

Projenin lideri Mehrdad Saberi şöyle yazdı: “Özellikle, filigranlama yöntemine yalnızca kara kutu erişimi sağlayarak, gerçek görüntülere eklenebilecek filigranlı bir gürültü görüntüsü oluşturularak bunların yanlışlıkla filigranlı görüntüler olarak işaretlenebileceğini gösterdik.” Yapay Zeka araştırmacısı Soheil Feizi ile birlikte yayınlanan makalenin araştırmacısı.

Filigranların etkinliği bu kadar sorgulanabilirse neden büyük teknoloji şirketleri ve Beyaz Saray bunun kullanılması için baskı yapıyor? Kerschbaum, “Çünkü bu hala en iyi alternatiflerden biri ve muhtemelen sorunun üstesinden gelmek için birden fazla yaklaşıma ihtiyacımız var.” dedi.

Bilgisayar korsanları onları zayıflatmanın yollarını ararken bile, araştırmacılar filigran yerleştirmenin daha iyi yollarını arıyorlar; bu, her güvenlik sorunu gibi, öngörülebilir geleceğe sonu olmayan bir şekilde uzanmayı vaat eden bir döngü.

Bir yaklaşım, filigranları yapay zeka oluşturucularına dahil etmek için yapay zekayı kullanmaktır. Kerschbaum, Waterloo Üniversitesi’nin uyarlanabilir bir saldırganı hesaba katan “daha güçlü” filigranlama algoritmaları geliştirme sürecinde olduğunu söyledi. “Önce bir tehdit modeli tanımladık, ardından yapay zeka kullanan genel bir uyarlanabilir saldırgan tasarladık ve bu saldırgana ve dolayısıyla maksimum değişiklik eşiğine kadar her türlü saldırıya karşı dirençli olan üretken yapay zekaya bir filigran ekleme algoritması oluşturmak üzereyiz. “dedi.

Diğer bir yöntem ise yapay zeka sağlayıcılarının hepsinin çabalarını uyumlu hale getirmesini ve benzer filigranlar üretmesini sağlamaktır. Kerschbaum, “Filigranlar çok fazla farklılık gösteriyorsa, çıktılar ve filigranlar birleştirilebilir ve tespit edilecek her filigranın ‘yeterli’ olmadığı iyi bir çıktı elde edilebilir.” dedi. Bu yöntem, filigran tespit araçlarının yaygın olarak kullanılabilir hale getirilmesi ve hem iyi hem de kötü aktörlerin bu araçlara eşit erişime sahip olması ikilemini potansiyel olarak çözebilir.

Microsoft ve Adobe’nin, ilgili AI platformları tarafından oluşturulan görüntülere kriptografik “görünmez” bir filigran simgesi olan İçerik Kimlik Bilgilerini ekleyeceklerine dair yakın zamanda yaptıkları duyuru, bu yönde bir adım gibi görünüyor.





Source link