Düzenleyiciler Dolandırıcılık Önleme Kurallarıyla Deepfake’lerle Mücadele Ediyor


Yapay zeka tarafından oluşturulan derin sahtekarlıklar daha karmaşık hale geldikçe, düzenleyiciler kötüye kullanımla mücadele etmek için mevcut dolandırıcılık ve aldatıcı uygulama kurallarına yöneliyor. Deepfake’leri özel olarak ele alan bir federal yasa olmasa da, FTC ve SEC gibi kurumlar bu riskleri azaltmak için yaratıcı çözümler uyguluyor.

Yapay zeka tarafından oluşturulan deepfake’lerin kalitesi hayret verici. Binghamton Üniversitesi profesörü Yu Chen, “Artık gözlerimize inanamıyoruz. Gördüğünüz şey gerçek değil” diyor. Gerçek bir görüntü ile deepfake’i ayırt etmek için araçlar gerçek zamanlı olarak geliştirilmektedir. Ancak kullanıcı bir görselin gerçek olmadığını bilse bile hâlâ zorluklar var.

Federal Ticaret Komisyonu başkanı Lina M. Kahn Eylül ayında, “İnsanları kandırmak, yanıltmak veya dolandırmak için yapay zeka araçlarını kullanmak yasa dışıdır” dedi. Dolandırıcılık veya aldatma için kullanılan yapay zeka araçları mevcut yasalara tabidir ve Khan, FTC’nin yapay zeka dolandırıcılarının peşine düşeceğini açıkça belirtti.

Niyet: Dolandırıcılık ve Aldatma

Deepfakes, şirketlerinin hisse senedi fiyatlarının değişmesine neden olabilecek bir eylemde bulunduğunu duyuran bir yöneticinin yanlış imajını oluşturmak gibi diğer kurumsal adil olmayan iş uygulamaları için de kullanılabilir. Örneğin, deepfake bir şirketin iflas ettiğini veya bir satın alma gerçekleştirdiğini bildirebilir. Hisse senedi ticareti söz konusuysa SEC dava açabilir.

Bir deepfake oluşturulduğunda niyet Crowell & Morning hukuk firmasının ortağı ve Kaliforniya Eyaleti Kurumsal Dolandırıcılık Bölümü eski başsavcı yardımcısı Joanna Forster, “bu, dolandırıcılığın klasik bir unsurudur” diyor.

Forster, “Hepimiz son dört yılda antitröst ve rekabet, tüketicinin korunması ve mahremiyet alanlarında oldukça aktivist bir FTC gördük” diyor.

Aslında arka planda konuşan bir FTC yetkilisi, ajansın konuyu agresif bir şekilde ele aldığını söyledi. Nisan ayında bir kural devlet veya iş dünyasının kimliğine bürünme yürürlüğe girdi. Kurum, mağdurları kandırmak ve dolandırmak için tasarlanmış ses klonları üzerinde de çalışmalarını sürdürüyor. Ajansın bir iş rehberliği blogu bu çabaların çoğunu takip ediyor.

Çeşitli eyalet ve yerel yasalar deepfake’leri ve gizliliği ele alıyor, ancak yaptırım konusunda hangi kurumun liderliği üstleneceğini tanımlayan federal bir yasa veya açık kurallar yok. Ekim ayının başlarında, ABD Bölge Yargıcı John A. Mendez, seçimle ilgili derin sahtekarlıklara karşı Kaliforniya yasasını engelleyen bir ihtiyati tedbir kararı verdi. Mendez, yargıcın yapay zeka ve derin sahtekarlıkların önemli riskler oluşturduğunu kabul etmesine rağmen Kaliforniya yasalarının muhtemelen Birinci Değişikliği ihlal ettiğini söyledi. Şu anda 45 eyalet ve Columbia Bölgesi’nin seçimlerde deepfake kullanımını yasaklayan yasaları var.

Gizlilik ve Sorumluluk Zorlukları

Ünlü olmayanları veya politikacıları, gizliliklerini ihlal eden deepfake’lerden koruyan çok az yasa var. Kanunlar ünlünün markalaşmış yüzünü, sesini ve tavırlarını koruyacak şekilde yazılmıştır. Bu, izleyiciyi aldatma amacı taşımayan, eğlence amacıyla bir ünlünün kimliğine bürünen bir çizgi romandan farklıdır. Ancak bir deepfake izleyiciyi kandırmaya çalışırsa bu, kandırma niyetinin sınırlarını aşar.

Debbie Reynolds Consulting’in gizlilik uzmanı ve CEO’su Debbie Reynolds, ünlü olmayan bir kişinin deepfake’i durumunda, deepfake’i kimin yarattığını bilmeden dava açmanın mümkün olmadığını ve bunun internette her zaman mümkün olmadığını söylüyor. Kimlik hırsızlığı yasaları bazı durumlarda geçerli olabilir ancak internetteki anonimliğin üstesinden gelmek zordur. Reynolds, “Bu şeyi kimin yarattığını asla bilemeyebilirsiniz, ancak bu zarar hâlâ mevcut” diyor.

Siber güvenlik hukuku ve risk yönetimi konusunda uzmanlaşmış bir danışmanlık firması olan CyXcel’in CEO’su Edward Lewis, bazı eyaletlerde özellikle yapay zeka ve deepfake kullanımına odaklanan yasalara bakarken, dolandırıcılık veya aldatma için kullanılan aracın önemli olmadığını söylüyor. Pek çok şirket yöneticisi, deepfake’lerin ve yapay zeka tarafından oluşturulan diğer içeriklerin oluşturulup dağıtılmasının ne kadar kolay olduğunun farkında değil.

“Bu, derin sahtekarlıklar hakkında ne bilmem gerektiğiyle ilgili değil; daha ziyade kimin erişime sahip olduğu ve işyerinde bu erişimi nasıl kontrol edebileceğimiz ile ilgili, çünkü personelimizin herhangi bir yapay zeka ile uygunsuz nedenlerle etkileşime geçmesini istemeyiz. ” diyor Lewis. “İkincisi, firmamızın yapay zeka kullanımına ilişkin politikası nedir? Hangi bağlamda kullanılabilir veya kullanılamaz ve işlerini yapabilmeleri için gerçekte kime yapay zeka erişimi sağlıyoruz?”

Lewis şunu belirtiyor: “Bu, diğer siber güvenlik risklerine yönelik kontrollerimizle hemen hemen aynı. Aynı kontrollerin yapay zeka kullanımı bağlamında da dikkate alınması gerekiyor.”

Yapay zeka tarafından oluşturulan derin sahtekarlıklar daha karmaşık hale geldikçe, düzenleyiciler mevcut dolandırıcılık ve gizlilik yasalarından yararlanarak uyum sağlamaya çalışıyor. Deepfake’e özel federal yasalar olmadığında, FTC ve SEC gibi kurumlar; aldatma, kimliğe bürünme ve kimliğin kötüye kullanılmasına karşı aktif olarak kurallar uyguluyor. Ancak sorumluluk, mahremiyet ve tanınma konusundaki zorluklar devam ediyor ve hem bireylerin hem de kuruluşların aşması gereken boşluklar bırakıyor. Düzenleyici çerçeveler geliştikçe, yapay zeka yönetişim politikaları ve sürekli izleme gibi proaktif önlemler, risklerin azaltılması ve dijital ortama olan güvenin korunması açısından önemli olacaktır.





Source link