ABD Düzenleyicileri Finansal Sistemlere Yönelik Yapay Zeka Riski Konusunda Uyardı


Yapay Zeka ve Makine Öğrenimi, Finans ve Bankacılık, Sektöre Özel

Finansal İstikrar Gözetim Konseyi Yapay Zeka Kullanımının Artmasını Bekliyor

Rashmi Ramesh (raşmiramesh_) •
18 Aralık 2023

ABD Düzenleyicileri Finansal Sistemlere Yönelik Yapay Zeka Riski Konusunda Uyardı
ABD Finansal İstikrar Gözetim Konseyi, yapay zekayı “ortaya çıkan bir güvenlik açığı” olarak sınıflandırdı. (Resim: Shutterstock)

ABD düzenleyicileri, yapay zekanın finansal sistem için oluşturduğu riskleri ayrıntılı olarak açıkladılar ve teknolojiyi “ortaya çıkan bir güvenlik açığı” olarak sınıflandırdılar.

Ayrıca bakınız: Artık İçeriden İş Yok: Bankalarda İçeriden Gelen Tehditleri Durdurmak

Çoğunlukla finansal düzenleyicilerden oluşan ve başkanlığını Hazine Bakanlığı sekreterinin yaptığı bir ekip olan Finansal İstikrar Gözetim Konseyi, yıllık raporunda yapay zekanın inovasyonu teşvik etme potansiyelini vurguladı ancak “belirli riskler” getirme yeteneğini işaretledi.

Kuruluşların maliyetleri azaltmak ve çalışanların ve operasyonel verimliliği, performansı ve doğruluğu artırmak için teknolojiyi kullanmasıyla birlikte, finansal hizmetlerde yapay zeka kullanımının hızlanması bekleniyor.

Ancak konsey, bu hızlı benimsemenin aynı zamanda siber ve model riskleri gibi tehlikeleri de beraberinde getirebileceğini ve finansal istikrarı engelleyebileceğini söyledi.

Hazine Bakanı Janet Yellen Perşembe günü yaptığı açıklamada, “Bu alanda sorumlu inovasyonun desteklenmesi, finansal sistemin verimlilik artışı gibi faydalar elde etmesine olanak sağlayabilir, ancak risk yönetimi için uygulanması gereken mevcut prensipler ve kurallar da vardır.” dedi.

Üretken yapay zeka modelleri, metin, yazılım kodu, görseller ve diğer medya dahil olmak üzere yeni içeriklerin oluşturulmasına olanak tanıyan kalıpları tanımlamak için büyük veri kümeleri kullanır; bu da veri kontrolleri, gizlilik ve siber güvenlikle ilgili operasyonel riskleri beraberinde getirir.

Pek çok yapay zeka yaklaşımının açıklanabilirlik sorunu vardır; bu da insanların, yapay zekanın belirli bir sonuca nasıl ulaştığını tersine mühendislik konusunda zor zamanlar geçirdiği anlamına gelir. Bu “kara kutu” yaklaşımı, kuruluşların bir yapay zeka modelinin kullandığı bilginin kaynağını anlamasını ve dolayısıyla bilginin ve modelin nerede ve nasıl kullanılacağını, bunlara ne kadar güvenileceğini ve bunların nasıl belirleneceğini değerlendirmeyi zorlaştırabilir. modelin ürettiği çıktının doğruluğu ve potansiyel yanlılığı.

Konsey ayrıca, kusurlu ancak ikna edici bir anlatımla sunulan çıktılar olan halüsinasyonlar gibi üretken yapay zekayla ilişkili “karmaşık faktörler” konusunda da uyardı ve bu tür çıktıların performansını değerlendirmenin özel uzmanlık gerektirebileceğini ekledi. Bazı üretken yapay zeka çıktıları zaman içinde tutarsız olabilir. Konsey, aynı istemlerle sorulduğunda bile, kullanıcıların çıktıyı üretmek için kullanılan kaynakları bilemeyebileceğini ve bu araçları kullanan finansal kurumların, temel model kullanımlarına ilişkin veri seti üzerinde şeffaflığa veya kontrole sahip olmayabileceğini söyledi.

Finansal hizmet şirketlerinin, herhangi bir teknolojiye uygulayacakları genel risk yönetimi gerekliliklerinin aynısını yapay zekaya da uygulaması gerektiğini söyledi. Ayrıca, Başkan Joe Biden’ın temel modellere yönelik güvenlik testleri için yeni gereklilikler belirleyen Ekim ayındaki idari emri gibi, teknolojinin kullanımını daha güvenli hale getirmeyi amaçlayan alandaki düzenleyici gelişmeleri de yakından takip etmeleri gerekiyor (bkz.: Biden’ın Sağlam Yapay Zeka Yönetici Kararı Neden 2024’te Yetersiz Kalabilir?).

Ocak ayında Ulusal Standartlar ve Teknoloji Enstitüsü, kuruluşların yapay zekanın tasarımı, geliştirilmesi, kullanımı ve değerlendirilmesi açısından teknolojiyle ilişkili riskleri daha iyi yönetmelerine yardımcı olan yönergeler sunmak üzere özel ve kamu sektörleriyle birlikte geliştirilen Yapay Zeka Risk Yönetimi Çerçevesini yayınladı. ürünler, hizmetler ve sistemler.

FSOC ayrıca, gözetim yapılarının finansal sisteme yönelik ortaya çıkan riskleri hesaba katmasını sağlamak ve aynı zamanda verimliliği ve yenilikçiliği kolaylaştırmak için yapay zekadaki “hızlı gelişmelerin” izlenmesini de tavsiye etti. Finansal kurumlara, piyasa katılımcılarına ve düzenleyici ve denetleyici otoritelere, ortaya çıkan riskleri belirlemek için yapay zeka yeniliklerini ve kullanımını izleme konusundaki uzmanlıklarını ve kapasitelerini derinleştirmeleri tavsiyesinde bulundu.

Konsey, “Yapay zeka yaklaşımlarının karmaşıklığı arttıkça hataların ve önyargıların tespit edilmesi ve düzeltilmesi daha da zor hale gelebilir; bu da teknolojiyi geliştirenlerin, onu kullanan finans sektörü firmalarının ve bu firmaları denetleyen düzenleyicilerin dikkatli olması gerektiğinin altını çiziyor” dedi.

Aynı zamanda G7 Siber Uzman Grubu’nun, kendisine bağlı yetki alanları genelinde siber güvenlik politikası ve stratejisini koordine etme ve yapay zeka ile diğer yeni teknolojilerin küresel finansal sistemleri nasıl etkileyebileceğini ele alma girişimini de destekledi.





Source link