Bu Chatgpt Action figürünü oluşturmadan önce iki kez düşünün


Başlangıçta Nisan ayında, LinkedIn ve X dahil olmak üzere sosyal medya sitelerinde bir aksiyon figürü ortaya çıkmaya başladı. Her figür, onu yeniden kullanılabilir kahve fincanları, yoga paspasları ve kulaklıklar gibi kişiselleştirilmiş aksesuarlarla birlikte tuhaf doğrulukla yaratan kişiyi tasvir etti.

Tüm bunlar, Openai’nin ChatGpt’in resimleri düzenleme, metin oluşturma ve daha fazlasını süper şarj eden yeni GPT-4O ile çalışan görüntü üreticisi nedeniyle mümkündür. Openai’nin Chatgpt görüntü üreticisi, Japon animasyon film şirketi Studio Ghibli tarzında da resimler oluşturabilir – hızla viral olan bir trend.

Görüntüler eğlenceli ve yapılması kolay – ihtiyacınız olan tek şey ücretsiz bir chatgpt hesabı ve bir fotoğraf. Yine de bir aksiyon figürü veya stüdyo ghibli tarzı görüntü oluşturmak için, modellerini eğitmek için kullanılabilecek Openai’ye çok fazla veri teslim etmeniz gerekir.

Gizli veriler

Bir AI görüntü düzenleyicisi kullandığınızda verdiğiniz veriler genellikle gizlidir. CHATGPT’ye bir resim her yüklediğinizde, Potansiyel olarak “tüm bir meta veri demetini” teslim ediyorsunuz, Open Teknoloji Enstitüsü’nün siber güvenlik alan başkanı Tom Vazdar. “Bu, fotoğraf dosyasına eklenen EXIF ​​verilerini, fotoğrafın çekildiği zaman ve GPS koordinatları gibi nerede çekildiği gibi.”

Openai ayrıca platforma erişmek için kullandığınız cihaz hakkında veri toplar. Bu, cihaz türünüz, işletim sisteminiz, tarayıcı sürümünüz ve benzersiz tanımlayıcılarınız anlamına gelir. “Ve Chatgpt gibi platformlar konuşma olarak çalıştığı için, yazdığınız, ne tür görüntüler istediğiniz, arayüzle nasıl etkileşime girdiğiniz ve bu eylemlerin sıklığı gibi davranışsal veriler de var.”

Bu sadece senin yüzün değil. Yüksek çözünürlüklü bir fotoğraf yüklerseniz, Openai’ye görüntüde başka ne varsa veriyorsunuz-arka plan, diğer insanlar, odanızdaki şeyler ve belgeler veya rozetler gibi okunabilir her şey, diyor Risk Yönetimi firması GRC International Group’ta AI ürün pazarlama grubu Camden Woollven.

Vazdar, gönüllü olarak sağlanan bu tür, rıza destekli veriler “özellikle görsel girdilere dayanan çok modlu modeller için bir altın madeni” dir.

Openai, kullanıcı verilerini toplamak için viral fotoğraf trendlerini bir manevra olarak düzenlediğini inkar ediyor, ancak firma kesinlikle bir avantaj elde ediyor. Vazdar, mutlu bir şekilde kendiniz yüklüyorsanız, Openai’nin yüzünüz için ağını kazımasına gerek yok. “İster tasarımla ister uygun bir fırsat olsun, bu eğilim, şirkete farklı yaş grupları, etnik kökenler ve coğrafyalardan büyük miktarda taze, yüksek kaliteli yüz verisi sunuyor.”

Openai, Openai sözcüsü Wired’e göre, Openai, modelleri eğitmek için aktif olarak kişisel bilgileri aramadığını ve internetteki genel verileri kullanmadığını söylüyor. Ancak, Openai’nin mevcut gizlilik politikası kapsamında, ChatGPT aracılığıyla gönderilen görüntüler korunabilir ve modellerini geliştirmek için kullanılabilir.

Paylaştığınız herhangi bir veri, istem veya talep algoritmayı öğretmeye yardımcı olur – ve kişiselleştirilmiş bilgiler, LinkedIn’deki trendin gizlilik risklerini göstermek için kendi eylem figürünü oluşturan güvenlik kıyafeti ESET’teki Global Siber Güvenlik Danışmanı Jake Moore.

Tuhaf benzerlik

Bazı pazarlarda, fotoğraflarınız düzenleme ile korunmaktadır. İngiltere ve AB’de, GDPR dahil veri koruma düzenlemesi, verilerinize erişme veya silme hakkı da dahil olmak üzere güçlü korumalar sunar. Aynı zamanda, biyometrik verilerin kullanılması açık onay gerektirir.

Bununla birlikte, fotoğraflar sadece belirli bir bireyin benzersiz tanımlanmasına izin veren belirli bir teknik yolla işlendiğinde biyometrik veriler haline gelir. Orijinal fotoğrafta konunun bir çizgi film versiyonunu oluşturmak için bir görüntü işlemek “bu tanımı karşılama olasılığı düşüktür” diyor.



Source link