ASIC, yapay zekanın kötüye kullanımıyla ilgili özel yasalar talep ediyor – Yazılım


Avustralya’nın mali gözlemcisi, yapay zekanın kötüye kullanıldığı iddialarını dizginlemek için mevcut yasaları kullanıyor ancak gelişen teknolojileri daha iyi düzenlemek için reformlara ihtiyaç olduğunu söylüyor.

ASIC, yapay zekanın kötüye kullanımıyla ilgili özel yasalar istiyor


Avustralya Menkul Kıymet Yatırımları Komisyonu (ASIC) başkanı Joe Longo dün, makine öğrenimi ve otomatik karar vermenin neden olduğu zararların önlenmesi ve bunlara müdahale edilmesine yönelik yasal boşlukların altını çizdi.

ASIC’in hâlâ şirketleri mevcut yasalara göre sorumlu tutmaya çalıştığını söyledi.

“ASIC zaten yapay zeka ile ilgili sorunların ortaya çıktığı bir eylemi sürdürüyor” dedi.

“Düzenleyici parametrelerin belirsiz olduğu veya şirketlerin algılanan boşluklardan yararlanmaya çalıştığı yerlerde test etmeye hazırız.”

Longo, “mevcut düzenleyici ortamımız ile ideal çevre arasında bir ayrım olmasına rağmen” dedi. [one]…AI geliştiren ve kullanan işletmeler ve bireyler halihazırda çeşitli Avustralya yasalarına tabidir.”

Bunlar, “mevcut yöneticilerin sözleşme kapsamındaki yükümlülükleri” gibi geniş, “ilkelere dayalı” yasaları içerir. Şirketler Yasası [that] belirli görevler değildir” ve “ekonominin tüm sektörleri için geçerli olan gizlilik, çevrimiçi güvenlik, şirketler, fikri mülkiyet ve ayrımcılıkla mücadele ile ilgili yasalar.”

Longo, “‘opak’ yapay zeka sistemlerinin” neden olduğu zararların tespit edilmesinin geleneksel beyaz yakalı suçlara göre daha zor olması nedeniyle, algoritmalar veya yapay zeka yoluyla işlenen suçlara göre uyarlanan düzenlemelerin bunları önlemede daha etkili olacağını söyledi.

Longo, “Mevcut yasalar kötü eylemleri cezalandırmaya yeterli olsa bile, zararları önleme yetenekleri yeterli olmayabilir” dedi.

Örneğin, bir yapay zeka içeriden öğrenenlerin ticaretini veya piyasa manipülasyonunu kolaylaştırdıysa, ASIC’in mevcut düzenleyici çerçeve dahilinde cezalar uygulayabileceğini ancak yapay zekaya özgü yasaların ihlali önleme ve caydırma olasılığının daha yüksek olacağını söyledi.

“Bir sağlayıcı, bir yapay zeka yatırım yöneticisinin yeterli yönetişimine veya denetimine sahip değilse ne olur?

“Bir sistem olarak, zararları durdurarak piyasayı manipüle etmeyi öğrendiğinde, piyasa düşüşlerine ve oynaklığa neden olduğunda… tespit sistemlerinin eksikliği olduğunda… evet, sorumlu dış kaynak kullanımına ilişkin düzenlemelerimiz geçerli olabilir – ancak zararı önlediler mi?

“Ya da bir sağlayıcı yapay zeka sistemini, yalnızca ilgili taraf ürünlerini desteklemeye çalışmak veya geçmiş verilere dayanarak bazı tercihler vererek teklifleri paylaşmak gibi başka bir gündemi gerçekleştirmek için kullanabilir.”

“Kaza eseri veya kasıtlı olarak haksız uygulamaları önlemek için şeffaflığa ve gözetime ihtiyaç var. Ancak mevcut düzenleyici çerçevemiz bunun olmasını sağlayabilir mi? O kadar emin değilim.

“Risklerin hafife alınmasına yol açabilecek insan gözetimi olmadan yapay zeka risk modellerine körü körüne güvenmeyi önlüyor mu? Modellerin eğitim sırasında karşılaşmamış olabileceği ortaya çıkan risklerin dikkate alınmamasını engelliyor mu?”

Longo, tüketicileri yapay zekanın kolaylaştırdığı zararlara karşı korumaya yönelik yasaların, yapay zekanın ne zaman kullanıldığına ilişkin mevcut şeffaflık sorununu, kasıtsız önyargıyı ve otomatik bir karara itiraz etmenin ve zararlardan kimin sorumlu olduğunu belirlemenin zorluğunu ele alması gerektiğini söyledi.

“’Daha iyi’ kredi risklerini belirlemek için yapay zeka sistemlerini kullanan kredi sağlayıcılarının (potansiyel olarak) savunmasız tüketicilere karşı haksız ayrımcılık yapabileceğini hayal etmek hayal ürünü değil.

“Böyle bir durumda mücadele eden kişinin temyize başvurma hakkı olacak mı? Yapay zekanın kullanıldığını bile bilecekler mi? Ve eğer öyleyse, kim suçlanacak? Geliştiriciler mi? Şirket?

“Peki şirket, kararın insan modellemesinden daha geniş veri setlerine dayanan bir hesaplamanın aksine, algoritmik önyargı nedeniyle verilip verilmediğini belirleme konusunda nasıl bir yol izleyecek?”

Hükümetin incelemeye son yanıtı Gizlilik Yasası “prensipte” “otomatik kararların nasıl alındığına ilişkin anlamlı bilgi talep etme hakkını” koruma konusunda anlaşmaya varıldı.

Avrupa Birliği’nin (AB) Genel Veri Koruma Yönetmeliği çok daha ileri gidiyor; Bir bireyin “profil çıkarma da dahil olmak üzere, kendisi hakkında hukuki sonuçlar doğuran, yalnızca otomatik işlemeye dayanan bir karara tabi tutulması” Madde 22 uyarınca yasa dışıdır.

Longo, geliştiricilerin ve politika yapıcıların önerdiği çözümlerden birinin, “Yapay Zeka anayasalarını” karar verme modellerine kodlamak ve önceden belirlenmiş kuralların ihlallerini hala ortaya çıkarıp çıkaramayacaklarını test etmek olduğunu söyledi.

Longo, “Bu çeşitli zorluklara yanıt olarak, bazıları kırmızı ekip oluşturma veya ‘Yapay Zeka anayasaları’ gibi çözümler önerebilir; bu, yapay zekanın uyması gereken yerleşik bir yapıya sahip olması durumunda daha iyi anlaşılabileceği önerisidir” dedi.

“Ancak bunların bile savunmasız olduğu görüldü; bir araştırmacı ekibi, isteklerinin sonuna rastgele karakterler ekleyerek çeşitli yapay zeka modellerinin kontrol önlemlerini aştı.”

Longo’nun söylediği bir başka önlem de, NSW’nin 2022’den bu yana devlet kurumlarına uyguladığı bir önlem olan “Yapay Zeka risk değerlendirmelerinin” zorunlu kılınmasıydı.

Longo, “Ancak burada bile, daha önce sorduğum sorulara benzer soruların, risk değerlendirmesinin zararı önlemede gerçekten etkili olmasını sağlamak için dikkate alınması gerekiyor” dedi.



Source link