İnsanın Kötüye Kullanımı Yapay Zekayı Daha Tehlikeli Hale Getirecek


OpenAI CEO’su Sam Altman, AGI’nin veya yapay genel zekanın (birçok görevde insanlardan daha iyi performans gösteren yapay zeka) 2027 veya 2028 civarında olmasını bekliyor. Elon Musk’un tahmini ya 2025 ya da 2026’dır ve kendisi “yapay zeka tehlikesi tehdidi nedeniyle uykularını kaybettiğini” iddia etmiştir. ” Bu tür tahminler yanlıştır. Mevcut yapay zekanın sınırlamaları giderek netleştikçe çoğu yapay zeka araştırmacısı, daha büyük ve daha güçlü sohbet robotları oluşturmanın yapay zekaya yol açmayacağı görüşüne varmıştır.

Ancak 2025 yılında yapay zeka hala büyük bir risk teşkil edecek: yapay süper zekadan değil, insanların kötüye kullanımından dolayı.

Bunlar, avukatların yapay zekaya aşırı güvenmeleri gibi kasıtsız suiistimaller olabilir. Örneğin ChatGPT’nin piyasaya sürülmesinden sonra, görünüşe göre chatbotların uydurma eğiliminden habersiz olan bazı avukatlar, hatalı mahkeme brifingleri oluşturmak için yapay zekayı kullandıkları için yaptırıma maruz kaldı. Britanya Kolumbiyası’nda avukat Chong Ke’ye, yapay zeka tarafından oluşturulan hayali davaları yasal bir dosyaya dahil etmesinden sonra karşı tarafın avukatının masraflarını ödemesi emredildi. New York’ta Steven Schwartz ve Peter LoDuca, yanlış alıntı yapmaları nedeniyle 5.000 dolar para cezasına çarptırıldı. Colorado’da Zachariah Crabill, ChatGPT kullanılarak oluşturulan hayali dava davalarını kullandığı ve hatalardan dolayı “hukuk stajyerini” suçladığı için bir yıl süreyle uzaklaştırma cezasına çarptırıldı. Liste hızla büyüyor.

Diğer suiistimaller kasıtlıdır. Ocak 2024’te Taylor Swift’in müstehcen deepfake’leri sosyal medya platformlarını sular altında bıraktı. Bu görüntüler Microsoft’un “Tasarımcı” AI aracı kullanılarak oluşturuldu. Şirket, gerçek kişilerin görüntülerini oluşturmaktan kaçınmak için korkuluklara sahip olsa da Swift’in adının yanlış yazılması, bunların atlanması için yeterliydi. Microsoft o zamandan beri bu hatayı düzeltti. Ancak Taylor Swift buzdağının görünen kısmı ve rıza dışı deepfake’ler yaygın bir şekilde çoğalıyor; bunun nedeni kısmen deepfake yaratmaya yönelik açık kaynaklı araçların halka açık olması. Dünya çapında devam eden mevzuat, hasarın azaltılması umuduyla deepfake’lerle mücadele etmeyi amaçlıyor. Etkili olup olmadığı henüz bilinmiyor.

2025 yılında gerçek olanı uydurma olandan ayırmak daha da zorlaşacak. Yapay zeka tarafından oluşturulan ses, metin ve görüntülerin aslına uygunluğu dikkat çekicidir ve sırada video yer alacaktır. Bu, “yalancının payına” yol açabilir: iktidar konumundakiler, kötü davranışlarına ilişkin kanıtların sahte olduğunu iddia ederek bunları reddederler. 2023’te Tesla, CEO’nun Tesla otopilotunun güvenliğini abartarak bir kazaya yol açtığı iddialarına yanıt olarak Elon Musk’un 2016 tarihli bir videosunun deepfake olabileceğini savundu. Hintli bir politikacı, siyasi partisindeki yolsuzluğu kabul ettiği ses kliplerinin üzerinde oynandığını iddia etti (kliplerinden en az birindeki sesin gerçek olduğu bir basın kuruluşu tarafından doğrulandı). 6 Ocak’taki ayaklanmalarda yer alan iki sanık da yer aldıkları videoların deepfake olduğunu iddia etti. Her ikisi de suçlu bulundu.

Bu arada şirketler, temelde şüpheli ürünleri “Yapay Zeka” olarak etiketleyerek satmak için kamuoyunun kafa karışıklığından yararlanıyor. Bu tür araçlar insanları sınıflandırmak ve onlar hakkında önemli kararlar almak için kullanıldığında, bu durum çok yanlış olabilir. Örneğin işe alım şirketi Retorio, yapay zekasının adayların işe uygunluğunu video görüşmelerine dayanarak tahmin ettiğini iddia ediyor, ancak bir çalışma sistemin sadece gözlük varlığıyla veya düz bir arka planın kitaplık ile değiştirilmesiyle kandırılabileceğini buldu. yüzeysel korelasyonlara dayanır.

Ayrıca sağlık, eğitim, finans, ceza adaleti ve sigorta alanlarında yapay zekanın şu anda insanları önemli yaşam fırsatlarından mahrum bırakmak için kullanıldığı düzinelerce uygulama var. Hollanda’da Hollanda vergi dairesi, çocuk refahı dolandırıcılığı yapan kişileri tespit etmek için bir yapay zeka algoritması kullandı. Binlerce ebeveyni haksız yere suçladı ve çoğu zaman on binlerce avroyu geri ödemeyi talep etti. Bunun sonucunda Başbakan ve kabinesinin tamamı istifa etti.

2025’te yapay zeka risklerinin yapay zekanın kendi başına hareket etmesinden değil, insanların onunla yaptıklarından kaynaklanacağını bekliyoruz. Bu, aşağıdaki durumları içerir: öyle gibi iyi çalışması ve kendisine aşırı güvenilmesi (ChatGPT kullanan avukatlar); iyi çalıştığında ve kötüye kullanıldığında (rızasız derin sahtekarlıklar ve yalancının kârı); ve amaca uygun olmadığında (insanların haklarının reddedilmesi). Bu riskleri azaltmak şirketler, hükümetler ve toplum için devasa bir görevdir. Bilimkurgu endişelerinden rahatsız olmadan da yeterince zor olacak.



Source link