Avustralya, Yapay Zeka’yı (AI) düzenleme zorluğunun üstesinden geliyor. Ülke, insan müdahalesi ve şeffaflığa odaklanan hedefli AI kuralları getirme planlarını duyurdu. Bu, AI benimsenmesinde küresel bir artış ve potansiyel tuzakları hakkındaki artan endişeler ortasında geliyor.
“Avustralyalılar yapay zeka konusunda daha güçlü korumalar istiyor, bunu duyduk, dinledik. Avustralyalılar yapay zekanın harika şeyler yapabileceğini biliyor, ancak insanlar işler kontrolden çıkarsa korumaların mevcut olduğunu bilmek istiyor. Artık kendi kendini düzenleme hakkının olduğunu düşünmüyoruz. Sanırım o eşiği geçtik” dedi Sanayi ve Bilim Bakanı Ed Husic 5 Eylül 2024’te yaptığı açıklamada.
Yeni AI Kuralları Öneriliyor
Şu anda Avustralya’da yapay zekayı yöneten belirli yasalar bulunmuyor. 2019’da ülke, sorumlu kullanımı için sekiz gönüllü ilke getirdi. Ancak, hükümetin yakın zamanda yayınladığı bir rapor, özellikle yüksek riskli senaryolar için bu yaklaşımın eksikliklerini vurguladı.
Önerilen yeni düzenlemeler bu eksiklikleri gidermeyi amaçlıyor. Ayrıntılar henüz belli olmasa da Bakan Husic, odak noktasının şunlar olacağını açıkladı:
- İnsan gözetimi: Kritik kararları almak ve yapay zeka önyargılarının ayrımcılığı veya adaletsizliği sürdürmesini önlemek için her zaman “işin içinde” bir insanın olmasını sağlamak.
Hükümetin duyuruya eşlik eden bir raporunda, “Anlamlı insan denetimi, gerektiğinde müdahale etmenizi ve beklenmeyen sonuçlar ve zararlar olasılığını azaltmanızı sağlayacaktır” denildi. Ayrıca, işletmelerin AI’nın içerik oluşturma sürecine dahil olması konusunda açık olmaları gerektiği belirtildi.
- Şeffaflık: Şirketlerin, özellikle içerik üretme söz konusu olduğunda, AI’nın operasyonlarındaki rolü konusunda şeffaf olmaları gerekecektir. Bu, kullanıcıları bir AI sistemiyle etkileşime girdiklerinde bilgilendirmeyi içerir.
Önerilen düzenlemeler şimdilik gönüllülük esasına dayanıyor ancak hükümet, gelecekte yüksek riskli ortamlarda zorunlu hale getirilme olasılığına işaret etti. Bu, yakın zamanda yüksek riskli uygulamalara katı şeffaflık yükümlülükleri getiren çığır açıcı yapay zeka yasalarını çıkaran Avrupa Birliği’nin benimsediği benzer bir yaklaşımı takip ediyor.
Yapay Zeka Düzenlemesine Yönelik Küresel Bir Trend
Avustralya’nın önerdiği düzenlemeler, AI yönetimine yönelik büyüyen küresel eğilimin bir parçasıdır. ABD, İngiltere ve AB dahil olmak üzere birçok ülke, sorumlu bir şekilde geliştirilmesini ve dağıtımını sağlamak için AI’yı düzenlemenin yollarını aktif olarak araştırmaktadır.
Bu alandaki son gelişmelerden biri, küresel bir AI antlaşmasının potansiyelidir. ABD, İngiltere ve AB’nin, AI çağında insan haklarını ve demokrasiyi korumaya odaklanan ilk uluslararası anlaşmayı oluşturmak için görüşmelerde bulunduğu bildiriliyor.
Reuters, uluslararası AI anlaşmasının, onu müzakere eden ülkeler tarafından perşembe günü imzaya açılacağını bildirdi.
Yıllardır üzerinde çalışılan ve 57 ülke arasında yapılan görüşmelerin ardından mayıs ayında kabul edilen Yapay Zeka Sözleşmesi, sorumlu inovasyonu teşvik etmenin yanı sıra yapay zekanın oluşturabileceği riskleri de ele alıyor.
Reuters’ın aktardığına göre, İngiltere Adalet Bakanı Shabana Mahmood yaptığı açıklamada, “Bu Sözleşme, insan hakları ve hukukun üstünlüğü gibi en eski değerlerimizi aşındırmadan bu yeni teknolojilerin kullanılabilmesini sağlama yolunda önemli bir adımdır” dedi.
Reuters’ın haberine göre, imzacılar, hükümleri yürürlüğe koymak için yasal, idari veya diğer tedbirleri benimsemeyi veya sürdürmeyi seçebilirler.
Önümüzdeki Yol
Avustralya hükümeti şu anda kamuoyundan geri bildirim toplamak ve gelecekte yüksek riskli ortamlarda AI sistemlerinin kullanımının zorunlu olup olmayacağını belirlemek için bir aylık bir danışma sürecinden geçiyor. Bu geri bildirim, nihai politika çerçevesini iyileştirmek için kullanılacak.
Google’ın Gemini’si ve Microsoft destekli OpenAI’nin ChatGPT’si gibi üretken yapay zeka sistemlerinin popülaritesinin artmasıyla birlikte, dünya çapındaki düzenleyiciler, yapay zeka teknolojilerinin ürettiği sahte haberler ve yanlış bilgiler konusunda endişelerini dile getirdiler.