AI video gözetim bildiğimiz gibi gizliliği sona erdirebilir


Yapay zeka ile çalışan video gözetimi gizlilik hakkında büyük sorular getiriyor. Bir yandan, bizi daha güvenli hissettirebilir, ancak diğer yandan çizgiyi kolayca saldırıya geçebilir. Teknolojinin davranışımızı izlemesine ve izlemesine ne kadar izin verirsek, gizliliğin nerede durduğunu ve gözetimin başladığını bilmek o kadar zordur.

AI video gözetim

Ai herkese göz

Küresel video gözetim endüstrisinin 2024’te 73,75 milyar dolar değerinde ve 2030 yılına kadar 147.66 milyar dolara ulaşması bekleniyor. Kameralar her yerde: sokaklarda, mağazalarda ve spor tesislerinde.

AI teknolojisi bu sistemlere yeni yetenekler ekledi. Sadece daha sonraki inceleme için video kaydeden eski kameraların aksine, AI gözetimi yüzleri tanıyabilir, birden fazla kameradaki insanları izleyebilir ve alışılmadık davranışı gerçek zamanlı olarak işaretleyebilir. Ayrıca, bireylerin profillerini oluşturmak için gördüklerini diğer verilerle birleştirebilir.

Bununla birlikte, bu sistemler her zaman doğru değildir ve önyargı veya hatalardan etkilenebilir. Verilerin nasıl depolandığı, kullanıldığı ve kontrol edildiği yerel yasalara ve ekipmanın kamu yetkilileri veya özel şirketler tarafından işletilip işletilmediğine bağlıdır.

Sorun şu ki, çoğu insan bu verileri kimin tuttuğunu veya ne için kullanıldığını bilmiyor.

Dikkatli değilsek ve tanımlanmış sınırlar belirlemezsek, devletin, güvenlik bahanesi altında hayatımızın her yönünü kontrol ettiği bir distopik topluma girebiliriz. Bazı otoriter rejimler zaten vatandaşları üzerinde bu düzeyde kontrol kullanıyorlar ve dünya çapında demokrasiler üzerinde üstünlük kazanıyorlar. Tarih, bu tür rejimlerin genellikle büyük ölçüde gözetime güvendiğini göstermektedir.

Yazılımın elindeki özgürlüğünüz

Dünyanın dört bir yanında, insanlar sokaklara çıktıkça savaşlar ve siyasi değişiklikler protestoları körüklüyor. Bu çoğunlukla barışçıl gösterilerde, vatandaşlar görüşlerini dile getirmek ve belirli politikalara karşı geri dönmek istiyorlar, ancak izleme korkusu onları geri tutabilir.

Son yıllarda, kolluk kuvvetleri suçla mücadele etmek için yeni teknolojiler kullanıyor. Ancak bu araçlar ne kadar iyi çalışıyor ve masum insanları tehlikeye sokabilecek hatalar yapmamaya güvenebilir miyiz? Bir Washington Post soruşturması, bazı durumlarda, polisin yalnızca AI’ya güvendiğinde insanların yanlış tutuklandığını ve suçlandığını buldu.

Kolluk kuvvetleri tarafından kullanılan yüz tanıma yazılımı, prob görüntülerini sosyal medya ve kamu web sitelerinden kazınan milyarlarca fotoğraf içeren veritabanlarıyla karşılaştırır, bu da çevrimiçi bir fotoğrafı olan herkesin bir şüpheliye benzemesi durumunda bir ceza soruşturmasında rol oynayabileceği anlamına gelir.

Gözetim şehir sokaklarının ötesine, okullara ve üniversitelere yayılıyor. Yetkililer, öğrencileri güvende tutmak için bunun olduğunu, ancak eleştirmenlerin, özellikle aktivistlerin, daha fazla kontrole doğru ilk adım olabileceğini endişelendiriyorlar.

AI’yi kontrol altında tutmak

AI gözetimi, suçluları yakalamak, tehditleri tespit etmek ve krizleri yönetmek için yararlı olabilir, ancak kullanımında gözetim ve sınırlar olmalıdır. Hükümetlerin gizliliği koruma, gözetim verilerini ele alan şirketleri düzenleme ve teknolojinin vatandaşlara karşı kötüye kullanılmamasını sağlama sorumluluğu vardır.

AB’de AI Yasası, video gözetimi de dahil olmak üzere yapay zekanın kullanımını düzenleyen ilk kapsamlı yasa olarak kabul edilmiştir. Yasa, ciddi suçların kurbanlarını aramak veya terörist tehditleri önleme ve hatta sadece katı yargı gözetimi altında olan nadir durumlar dışında, kamusal alanlarda kitlesel gerçek zamanlı yüz tanımayı yasaklar.

Amerika Birleşik Devletleri’nde, özellikle AI video gözetimini yöneten tek bir federal yasa yoktur; Düzenleme büyük ölçüde eyaletlere, yerel yargı bölgelerine ve belirli durumlarda geçerli olabilecek mevcut yasalara bırakılmıştır. Bazı Kongre üyeleri sınırlar önermiş olsa da, şimdiye kadar hiçbir şey geçmedi.

Vatandaşlar haklarını ve AI gözetiminin günlük yaşam üzerindeki potansiyel etkisini anlamalıdır. Eğitim kampanyaları, insanların verilerin nasıl toplandığını ve kullanıldığını bilmelerine yardımcı olabilir, bu da bilinçli kararlar vermelerini ve yetkilileri ve şirketleri sorumlu tutmalarını sağlar. Kamuoyu bilinçlendirme ve katılımı, hükümetleri ve kuruluşları şeffaf, sorumlu ve adil hareket etmeleri için de baskı yapabilir.

Prizma, “Siber güvenlik savunması için yapay zeka, özellikle veri gizliliği, önyargı, şeffaflık, hesap verebilirlik ve otomatik yanıtlarda daha fazla entegre hale geldikçe, kuruluşların korunma ihtiyacını uygulamalarının etik sonuçlarıyla dikkatlice dengelemeli” dedi.



Source link