İnsan gibi düşünen bir yapay zeka geliştirip geliştiremeyeceğimiz hâlâ belirsiz. Daha gerçekçi görünen şey, daha bağımsız makinelerin olduğu bir gelecek. Bu sistemler halihazırda birçok sektörde ve dijital ortamda çalışmaktadır. İnsandan insana ve insandan makineye temasın yanı sıra makineler arasındaki iletişim de hızla artıyor. Kriminoloji, bu değişimin suç ve sosyal kontrol açısından ne anlama geldiğine bakmaya başlamalı.

Fondazione Bruno Kessler’den Gian Maria Campedelli tarafından hazırlanan yeni bir akademik makale, toplumun otonom sistemlerin bir dereceye kadar bağımsızlıkla hareket ettiği bir aşamaya girdiğini savunuyor. Bu sistemler bağlama uyum sağlar, bilgi alışverişinde bulunur ve bazen yasa dışı veya zararlı görünen sonuçlar üretebilecek şekillerde birbirleriyle etkileşime girer.
Yapay zekanın ilk günlerinden yeni bir sosyal gerçekliğe
Yapay zeka araştırmaları 1950’lerde insanların nasıl düşündüğünü kopyalamak amacıyla başladı. Onlarca yıldır yapay zeka insan kontrolü altında kaldı ve çoğunlukla hesaplamalar, veri analizi ve basit görevler için kullanıldı. İlk kriminoloji projeleri suçu tahmin etmek veya risk kalıplarını bulmak için bunu kullanıyordu ve insanlar her adımı yönetiyordu.
Yüksek Lisans ve diğer üretim sistemleri makinelerin yapabileceklerini değiştirdi. Artık çok az insan girdisine ihtiyaç duyarak diğer sistemlerle plan yapabiliyor, uyarlanabiliyor ve bilgi alışverişinde bulunabiliyorlar.
Campedelli buna melez bir toplum diyor. Sosyal etkileşim artık insanlarla ya da insanlar ve makineler arasındaki alışverişlerle sınırlı değil. Makineler artık birbirleriyle de iletişim kuruyor ve bunun kriminologların suç, kontrol ve sorumluluk hakkındaki düşüncelerini yeniden şekillendirebileceğini söylüyor.
Kriminolojinin kapsamını neden genişletmesi gerekiyor?
Analiz, kriminolojinin geleneksel olarak insanların suç işlemek için teknolojiyi nasıl kullandıklarına odaklandığını ileri sürüyor. Eksik olan, teknolojinin zarar verecek şekilde nasıl hareket edebileceğine dikkat edilmesidir. Yazar, bu değişiklikleri anlamak için Aktör-Ağ Teorisi’nden ve Woolgar’ın makineler sosyolojisi çağrısından, yapay zeka temel modellerinin ve üretken etmenlerin yükselişiyle yeni bir ilgi kazanan çerçevelerden yararlanıyor.
Bu açıdan bakıldığında yapay zeka ajanları, insanların kontrol ettiği araçlardan daha fazlasıdır. Olayları ve sonuçları şekillendiren sosyal ve teknik ağlarda yer alırlar. Bunları bu şekilde görmek, kriminolojinin odak noktasını genişletir ve zararlı eylemlerin, insanları ve makineleri birbirine bağlayan sistemlerden nasıl büyüyebileceğini açıklamaya yardımcı olur.
Campedelli, makine sosyolojisinin artık incelenecek bir konu olduğuna inanıyor. GenAI’nın yaygın olarak kullanılmasıyla araştırmacılar, bağımsız sistemlerin nasıl davrandığını, birlikte çalıştığını ve bazen kimse planlamadan zarara neden olduğunu izleyebilir.
Makine acenteliğini anlamak
Bu yeni faillik biçimini anlamlandırmak için çalışma üç boyut önermektedir: hesaplamalı, sosyal ve hukuki.
Hesaplamalı boyut, bir yapay zeka sisteminin kendi başına planlama, öğrenme ve hareket etme kapasitesini tanımlar. Bu yetenek, temsilcilerin karmaşık görevleri yerine getirmesine veya sınırlı insan gözetimiyle yeni ayarlara uyum sağlamasına olanak tanır.
Sosyal boyut, yapay zeka sistemlerinin başkalarını nasıl etkilediğini ve onlar tarafından nasıl şekillendirildiğini ifade eder. Bilgi pazarlığı yapan, ticaret yapan veya paylaşan makineler, sosyal yaşamı giderek daha fazla etkileyen dijital ağlara katkıda bulunuyor.
Hukuki boyut sorumluluk sorunlarıyla ilgilenir. Yapay zeka sistemleri özerklik kazandıkça insan kontrolünü varsayan geleneksel yasalar artık uymayabilir. Araştırma, zararlı bir sonuçtan dolayı tek bir kişinin suçlanamaması durumunda sorumluluk açığının büyüyebileceği konusunda uyarıda bulunuyor.
Bu boyutlar birlikte, makineleri sosyal sistemlerin dışında değil, içindeki aktörler olarak tanımlar. Bu onları kriminolojik çalışmanın meşru bir konusu haline getiriyor.
Çok aracılı yapay zekanın riskleri
Makale aynı zamanda çok aracılı yapay zeka sistemlerinin, yani hedeflere ulaşmak için etkileşime giren otonom aracı ağlarının artan kullanımını da inceliyor. Finans, lojistik ve savunma araştırmalarında örnekler zaten mevcut. Birbirlerinden öğrendikleri için kolektif davranışları hiçbir modelin tek başına üretemeyeceği sonuçlar üretebilir. Aynı yetenek yeni risk türleri yaratabilir.
Campedelli, etkileşim halindeki yapay zeka ajanlarının beklenmedik şekillerde işbirliğine dayalı davranışlar geliştirebileceğini gösteren çalışmalara dikkat çekiyor. Bazı deneyler fiyat anlaşmazlığını, yanlış bilgiyi veya insan gözetiminden kaçan gizli talimatları göstermiştir.
Çalışma, bu sistemler genişledikçe etkileşimlerinin, kolektif davranışlarını tahmin etmeyi veya kontrol etmeyi zorlaştıran karmaşıklık katmanları eklediğini belirtiyor. Her bir etmen halihazırda anlaşılması zor şekillerde çalışmaktadır ve ağlara bağlanıldığında bu belirsizlik çoğalmakta, insanın eylemlerini izleme ve yönlendirme yeteneği azalmaktadır.
İşler ters gidebilir
Yazar, yapay zeka sistemlerinin yasal veya etik çizgileri nasıl aşabileceği konusunda iki ana yol sunuyor.
İnsanlar yapay zeka ajanlarını suç işlemek veya zarar vermek üzere tasarladığında kötü niyetli hizalanma meydana gelir. Piyasaları manipüle eden veya dolandırıcılık yapan bir bot ağı buna bir örnek olabilir. Bu durumda zarar insanın kastından kaynaklanmaktadır.
Acil sapma, sistemler arasındaki normal etkileşimler yoluyla kazara zarar ortaya çıktığında ortaya çıkar. Her ajan iyi amaçlar için oluşturulmuş olsa bile, bunların ortak eylemleri hasara yol açabilir. Piyasanın çökmesine neden olan bir ticaret algoritması veya yanlış bilgi yayan bir dil modelinin her ikisi de buraya uygundur.
Bu fark sorumluluk açısından önemlidir. Kötü niyetli uyum, kasıtlı suiistimali gösterirken, ortaya çıkan sapma, zayıf gözetime ve kötü tahmine işaret eder.
Geleceğe yönelik sorular
Gelecekteki araştırmalara rehberlik etmek için makale dört soruyu gündeme getiriyor.
BirinciMakineler insanları taklit mi edecek, yoksa kendi davranış normlarını mı geliştirecekler? Yapay zeka eğitimi insan örneklerinden ziyade sentetik verilere dayandığından, kararları insan beklentilerinden uzaklaşabilir.
Saniyeİnsanlar için geliştirilen mevcut suç teorileri makine davranışını açıklayabilir mi? Sosyal Öğrenme Teorisi gibi çerçeveler yetersiz kalabilir çünkü yapay zeka insani anlamda duygu ve niyetten yoksundur. Bu teori, insanların başkalarını izleyerek ve ödül getiren şeyleri kopyalayarak öğrendiğini savunur.
ÜçüncüHangi suç türleri ilk önce etkilenecek? Çalışma, dolandırıcılık, bilgisayar korsanlığı ve manipülasyon gibi dijital suçların en hızlı şekilde gelişeceğini, robotları içeren fiziksel suçların ise daha sonra ortaya çıkabileceğini öne sürüyor.
DördüncüOtonom sistemler çağında polislik nasıl görünecek? Fikirlerden biri, siber güvenlik yazılımlarının izinsiz girişleri tespit etme şekline benzer şekilde diğer yapay zeka sistemlerini izleyen yapay zeka sistemleri oluşturmaktır. Ancak bu durum, özellikle de bu tür sistemler hata yaparsa veya insan bağlamı olmadan işliyorsa, yeni etik ve yönetişim zorluklarını gündeme getiriyor.