Popüler Hintli aktris Rashmika Mandanna’nın asansörde gülümsediği büyüleyici bir video hızla viral oldu ve sosyal medyada hayranlarını büyüledi. Ancak videonun gerçek olmadığı, derin bir sahtekarlık olduğu ortaya çıkınca söylentiler inanmamaya dönüştü.
Yaygın olarak paylaşılan videonun dijital olarak değiştirilmiş bir sahte olduğu haberi, sosyal medyada deepfake teknolojisinin potansiyel olarak kötüye kullanılması konusunda bir endişe dalgasına yol açtı.
Peki Rashmika Mandanna’nın Viral Deepfake Videosu Neyle İlgili?
Sevilen Hintli aktris Rashmika Mandanna’yı tasvir eden viral deepfake video ilk olarak Instagram’da ortaya çıktı. Ancak daha yakından incelendiğinde rahatsız edici bir gerçek ortaya çıktı: Bu video, İngiliz-Hintli sosyal medya fenomeni Zara Patel’i taklit eden derin sahte bir videoydu.
Viral deepfake videosu, deepfake teknolojisinin gelişmişliğinin çarpıcı bir kanıtıdır. Zararsız bir sahneyle açılıyor, ancak yalnızca bir saniye içinde Zara Patel’in yüzünün yerini ustaca Rashmika Mandanna’nınkiyle değiştiren ince bir geçiş oluyor. Sonuç, endişe verici derecede ikna edici bir yanılsamadır.
Viral Deepfake Videoyla İlgili Halkın Tepkileri ve Kaygıları
Yaygın kitleler de bu viral deepfake videoya tepkilerini ifade etmek için harekete geçti. Sosyal medya platformları endişe ve görüşlerle dolup taşıyor ve kontrolsüz deepfake teknolojisinin potansiyel sonuçlarına ışık tutuyor.
Örneğin iNK_Daddy, derin sahtekarlıkların zahmetsizce oluşturulmasını sağlayan yapay zekadaki hızlı gelişmeleri zekice gözlemledi. Tweet attı: “İnsanların son 5-10 yıldır yaptığı şeyleri yapay zekanın yapabileceğinden korkmasının komik olduğunu düşünüyorum, ancak yapay zeka bunu ona erişebilen herkes için zahmetsizce yapabilir.”
Amitesh Jasrotia kasvetli bir senaryo çizerek deepfake teknolojisinin sesi nasıl manipüle edebileceğini vurguladı. Bir aile acil durumunun ardından acilen mali yardım talep eden bir annenin sesinin taklit edildiği üzücü bir durum tasavvur etti: “Babası daha yeni kalp krizi geçirdiğinden beri birinin annesinin, yeni numarasına para aktarması için çaresizce oğlunu aradığı anı bekleyin (sesli deepfake) ).”
Pek çok kişinin duygularını yansıtan Ganesh Maurya, deepfake teknolojisinin doğasında bulunan mahremiyet ve rızanın ihlali konusunda derin endişelerini dile getirdi. Bu tür içeriklerin yaratıcıları ve dağıtıcılarına karşı yasal işlem başlatılması yönünde hararetli bir çağrıda bulunarak, bu kişilerin kanunlar önünde sorumlu tutulmasının önemini vurguladı:
“Uygunsuz videolar oluşturmak için deepfake teknolojisinin kullanılması son derece endişe vericidir ve mahremiyet ve rızanın ihlalidir. Bu gibi durumlarda mutlaka yasal yollara başvurulmalıdır. Bu videoların oluşturulmasından ve dağıtılmasından sorumlu kişiler kanun önünde sorumlu tutulmalıdır. Siber yasalar genellikle bu tür dijital kimliğe bürünme ve görüntülerin kötüye kullanılması eylemlerini kapsar ve yasal makamlarla iletişime geçmek, etkilenen bireylerin haklarının korunmasını ve adaletin sağlanmasını sağlamak için gerekli bir adımdır.
Yasal ve Düzenleyici Çerçevelerin Zorunluluğu
Rashmika Mandanna’nın deepfake videosu, Hindistan’da bu teknolojinin kötüye kullanılmasıyla mücadele etmek için yasal ve düzenleyici bir çerçeveye duyulan acil ihtiyacın çarpıcı bir hatırlatıcısı olarak hizmet ediyor.
Bireysel hakları korumak ve adaletin yerine getirilmesini sağlamak için dijital kimliğe bürünme ve görsellerin kötüye kullanımını kapsayan mevcut siber yasaların uygulanması büyük önem taşıyor.
Hindistan Hükümeti (GOI) Direktörü Jatinder Singh Randhawa, deepfake teknolojisinin kötüye kullanımını ele almanın aciliyetinin altını çizdi. Kendisi şunları vurguladı: “Bu konuyu ele almanın ve yasal işlem yapılmasını savunmanın bireylerin haklarını korumak açısından çok önemli olduğuna kesinlikle inanıyorum.”
Ayrıca şunları ekledi: “Adaletin yerini bulmasında adli makamlar çok önemli bir rol oynuyor. Uygunsuz deepfake içeriğin oluşturulması ve dağıtımına karışanların soruşturulması ve kovuşturulması, yalnızca mağdurun kişisel olarak haklı çıkarılması meselesi değil, aynı zamanda potansiyel suçlular için de caydırıcı bir rol oynuyor.”
CyberPeace Vakfı Kurucusu Binbaşı Vineet Kumar, derin sahtekarlıkların Hindistan hukuk sistemi içerisinde yasal olarak tanınması yönünde çağrıda bulundu. Rashmika Mandanna ve Zara Patel deepfake davasındaki mahremiyet ihlaline dikkat çekerek, bu yeni dijital suç biçimini ele almak için politikaların suç sayılması ve rapor tavsiyelerinin gerekliliğini vurguladı.
“Bu örnek, hem Rashmika Mandanna’nın hem de Zara Patel’in mahremiyet hakkının ihlal edildiğini açıkça gösteriyor ve bu, dijital alanda kadınlara karşı işlenen suçların yeni çağı biçimi olduğundan bu hafife alınamaz” dedi.
Deepfake Videolar Çağında Zorluklar ve Çözümler
Rashmika Mandanna ve halkın dile getirdiği endişelerin ötesinde, deepfake videolarla ilgili zorluklar çok yönlüdür ve kapsamlı bir yaklaşım gerektirir.
Cross Identity CEO’su ve Başkanı Binod Singh, Sanal Gerçeklik (VR) ve Yapay Zekanın (AI) işletmelere entegrasyonundan kaynaklanan potansiyel risklere ışık tutuyor. Bu teknolojiler nedeniyle saldırı yüzeyinin genişlediğini ve organizasyonlara yeni güvenlik açıkları getirdiğini vurguladı.
Singh şöyle devam etti: “Tehdit aktörleri bu güvenlik açıklarından hızla yararlanıyor ve veri bütünlüğü, gizlilik ve genel güvenlik açısından önemli riskler oluşturuyor. Ek olarak biyometrik verilerin VR sistemlerinde kullanılması veri koruma ve mahremiyet konusunda endişeleri artırıyor.”
Bu zorlukların üstesinden gelmek için Singh, Önce Kimlik güvenliğine ve Sıfır Güven İlkesinin uygulanmasına odaklanan proaktif bir yaklaşımı savundu. Eğitim ve farkındalık da bu karmaşık sorunların hafifletilmesinde hayati bir rol oynamaktadır.
Gelişen teknoloji karşısında bu içgörüler, hem bireyler hem de kuruluşlar için deepfake videoların yalnızca sonuçlarını değil, aynı zamanda sundukları daha geniş siber güvenlik sorunlarını da ele almanın önemini vurguluyor.
Rashmika Mandanna olayı, Hindistan’da bu sorunları çözmek için sağlam bir yasal ve düzenleyici çerçeve oluşturmaya yönelik kritik ihtiyacın altını çiziyor. Bireyleri deepfake teknolojisinin zararlı sonuçlarından korumak ve bu teknolojiyi kötü amaçlarla kullananlardan hesap sormak için harekete geçilmesi zorunludur. Gerçeklik ile aldatma arasındaki çizgi onarılamaz derecede bulanıklaşmadan önce artık harekete geçme zamanıdır.
Medya Yasal Uyarısı: Bu rapor, çeşitli yollarla elde edilen iç ve dış araştırmalara dayanmaktadır. Sağlanan bilgiler yalnızca referans amaçlıdır ve bu bilgilere güvenme konusunda tüm sorumluluk kullanıcılara aittir. Cyber Express bu bilgilerin kullanılmasının doğruluğu veya sonuçları konusunda hiçbir sorumluluk kabul etmez.