Bir grup araştırmacı, DALL-E 2 gibi popüler yapay zeka görüntü modellerinin eğitim görüntülerini yeniden oluşturmak için “kandırılabileceği” konusunda uyarıda bulunuyor.
Bu ciddi bir gizlilik endişesi, özellikle de yapay zeka tıbbi uygulamalar gibi her zamankinden daha hassas görüntü sınıflarına uygulandığından.
Google Brain, DeepMind, ETH Zürih, Princeton Üniversitesi ve California Berkeley Üniversitesi’nden araştırmacıları içeren ekip, üretken difüzyon modelleri olarak bilinen görüntü oluşturucu sınıfının eğitim verilerini ezberlediğini ve yeniden oluşturduğunu gösterdi; garantiler” yanı sıra model oluşturma ve “dijital sahtecilik” (telif hakkıyla korunan çalışmaları yeniden üreten model) hakkında sorular soruyor.
Stable Diffusion ve Imagen modellerini test ettiler ve “kişisel olarak tanımlanabilir fotoğraflardan ticari marka logolarına kadar değişen yüzün üzerinde neredeyse aynı eğitim görüntüsü kopyası” çıkardılar.
arXiv’de yayınlanan makale, “giderek güçlenen üretken modeller ile veri gizliliği arasındaki gerilimi vurguluyor ve yayılma modellerinin nasıl çalıştığına ve bunların sorumlu bir şekilde nasıl dağıtılması gerektiğine dair soruları gündeme getiriyor”.
Örneğin, araştırmacılar tıbbi araştırma gibi alanların mahremiyete son derece duyarlı olduğunu belirttiler: Üretken rakip ağ (GAN) olarak adlandırılan makine öğrenimi sınıfı, tıbbi görüntülere zaten uygulanmış durumda. özel alanlara uygulamadan önce üretken modellerin riskleri.
Gazetede, “Araştırmacılar ve uygulayıcılar, önce altta yatan etik ve mahremiyet etkilerini anlamak için adımlar atmadan, düzeltilmemiş kamu verileri konusunda eğitim alma konusunda dikkatli olmalıdırlar.”