Yapay Zekanın Felaket Riskini Düzenlemek Kolay Değil


Yapay Zeka ve Makine Öğrenimi, Mevzuat ve Davalar, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Yapay Zeka ve Güvenlik Uzmanları Riskleri Kimin Tanımladığını ve Azaltma Çabalarını Tartışıyor

Rashmi Ramesh (raşmiramesh_) •
11 Ekim 2024

Yapay Zekanın Felaket Riskini Düzenlemek Kolay Değil
Resim: Shutterstock

California eyalet meclisinin yapay zekanın felaket risklerini dizginlemeye yönelik girişimi, Vali Gavin Newsom’un geçen ayın sonlarında tedbiri veto etmesiyle engellendi.

Ayrıca bakınız: Makine Öğrenimi Sonuçlarına Daha Hızlı Ulaşın

Destekleyenler, SB 1047 yasa tasarısının, yapay zeka sistemleri geliştiricilerinin, büyük ölçekli zarara yol açabilecek kontrolden çıkmış algoritmaları serbest bırakmadan önce iki kez düşünmelerini gerektireceğini söyledi (bkz: Kaliforniya Valisi Newsom, Hararetle Tartışılan Yapay Zeka Güvenlik Yasa Tasarısını Veto Etti).

Tasarı yazarı Sen. Scott Wiener, valinin vetosunun “halkın güvenliğini ve refahını ve gezegenin geleceğini etkileyen kritik kararlar alan devasa şirketlerin gözetimine inanan herkes için bir başarısızlık” olduğunu söyledi. Eleştirmenler, tasarının çok açık bir önlem olduğunu ve eyaletin yapay zeka teknoloji endüstrisini engelleyeceğini söyledi.

Veto, eyalet yasa koyucularının bu yılın başlarında toplandıkları zamanki yapay zeka güvenlik düzenlemesinin durumunu aynı yerde bırakırsa, destekçiler ve karşı çıkanlar yine de aynı soruyu soruyor: Sırada ne var?

Düzenleme yanlısı ekibin uğraşması gereken engellerden biri, “yıkıcı” yapay zeka riskleri için geniş çapta kabul görmüş bir tanımın bulunmamasıdır. Tehdidin ne kadar gerçekçi veya acil olduğu konusunda çok az fikir birliği var; bazı uzmanlar yapay zeka sistemlerinin kontrolden çıktığına dair uyarıda bulunurken, diğerleri endişeleri abartı olarak değerlendiriyor.

Santa Clara Üniversitesi Leavey İşletme Fakültesi’nde iş analitiği alanında doçent olan Ram Bala, yıkıcı risklerin sistemin arızalanmasına neden olan riskler olduğunu söyledi. Information Security Media Group’a verdiği demeçte, risklerin tüm insanlığı tehlikeye atmaktan, yalnızca yapay zeka ürünlerinin kurumsal müşterilerini etkileyen aksaklıklar gibi daha sınırlı etkilere kadar değişebileceğini söyledi.

Illinois Üniversitesi’nde elektrik ve bilgisayar mühendisliği profesörü Deming Chen, yapay zekanın bir tür kişisel çıkar veya kişisel farkındalık geliştirmesi durumunda sonuçlarının korkunç olabileceğini söyledi. “Bir yapay zeka sistemi şu soruyu sormaya başlasaydı: ‘Bundan bana ne çıkar?’ Görev verildiğinde sonuçları ağır olabilir” dedi. Kontrolsüz öz farkındalık, yapay zeka sistemlerini yeteneklerini manipüle etmeye itebilir, bu da düzensizliğe ve potansiyel olarak felaketle sonuçlanabilecek sonuçlara yol açabilir.

Bala, çoğu uzmanın bu riskleri “uzaklaştırma” olarak gördüğünü, çünkü yapay zeka sistemlerinin şu anda duyarlılık veya niyetten yoksun olduğunu ve öngörülebilir gelecekte de muhtemelen böyle olacağını söyledi. Ancak bir tür felaket riski zaten burada olabilir. Steg.AI CEO’su Eric Wengrowski, yapay zekanın “yaygın toplumsal ve ekonomik zararının” deepfake ve dijital içerik manipülasyonu yoluyla yapılan dezenformasyon kampanyalarında açıkça görüldüğünü söyledi. Wengrowski, “Dolandırıcılık ve yanlış bilgi yeni değil, ancak yapay zeka, saldırı maliyetini azaltarak risk potansiyelini önemli ölçüde artırıyor” dedi.

SB 1047, yapay zekanın kazara meydana gelen arızaları ve kötü niyetli suiistimalini önlemeyi amaçladı. Önemli özelliklerden biri, geliştiricilerin siber güvenlik önlemleri ve hileli yapay zeka sistemlerinin acil olarak kapatılmasına izin veren bir “sonlandırma anahtarı” da dahil olmak üzere güvenlik protokollerini uygulaması gerekliliğiydi. Tasarı ayrıca geliştiricilere, düzenlemelere uyup uymadıklarına bakılmaksızın, sebep olunan herhangi bir zarardan dolayı kesin sorumluluk getiriyordu. Tasarı, eğitimlerine ne kadar para veya enerji harcandığına bağlı olarak hangi modellerin kendi yetki alanına gireceğini hesaplıyordu.

NCC Group teknik direktörü David Brauchler, hesaplama gücünün, model boyutunun veya eğitim maliyetinin risk için zayıf bir gösterge olduğunu söyledi. Aslında daha küçük, özel modeller, büyük dil modellerinden daha tehlikeli olabilir.

Brauchler ayrıca alarma karşı uyarıda bulunarak yasa yapıcıların varsayımsal süper istihbarat tehditleri yerine yapay zekanın güvenlik açısından kritik altyapılarda verdiği yanlış kararlar gibi acil riskleri önlemeye odaklanması gerektiğini söyledi. Gelecekteki spekülatif risklerden ziyade mevcut ve somut endişeleri ele alan zarar önleme önlemlerini hedef alan, yapay zeka düzenlemesine proaktif bir yaklaşım getirilmesini tavsiye etti. Yeni tehlikeler ortaya çıkarsa, hükümetlerin somut veriler olmadan önleyici olarak yasa çıkarmak yerine bilinçli yasalarla yanıt verebileceğini söyledi.





Source link