Colonial First State, finansal planlamanın karmaşıklığını ve maliyetini ortadan kaldırarak iyi tavsiyeleri daha erişilebilir hale getirme konusunda üretken yapay zekanın gelecekteki bir rolünü görüyor.
Jeroen Buwalda.
Dönüşüm, teknoloji ve operasyon grubu yöneticisi Jeroen Buwalda, Microsoft AI Tour’a üretken yapay zekayı, emeklilik ve varlık yönetiminin “müşterilerin karmaşıklıklarını anlamalarına yardımcı olmanın” bir yolu olarak gördüğünü söyledi.
“Üretken yapay zekanın, düzenlenmiş ortamda yaşadığımız dünyayı basitleştirmemize ve danışmanlık sektörlerine daha fazla erişim yaratmamıza yardımcı olacağına inanıyoruz.”
Buwalda, mevcut bilgi ve kuralları takip etme görevini “yangın musluğundan su içmeye” benzetti.
“Şu anda bu odadaki herhangi birinin emeklilik ve vergilendirmeyle ilgili ayrıntılı kuralları anlaması neredeyse imkansız ve bu çok karmaşık olduğundan, düzenleyici ortamlar nedeniyle, bir kişinin uygun mali durumu ele alması yaklaşık 3000 ila 4000 dolar arasında bir maliyete neden oluyor.” planlama.
“Emeklilik hesabınızda yalnızca 100.000 dolar varsa, finansal planlama için yüzde üç ila dört oranında ödeme yapmayacaksınız.
“Öyleyse ileriye dönük proje yapın ve GenAI’nin bunu daha iyi yapmak için tavsiye, erişilebilirlik ve danışman verimliliği oluşturmada nasıl bir rol oynayabileceğini düşünün. Oraya varabileceğimize dair umutluyuz.”
Buwalda, bu vizyon ile başarıya ulaşması arasında yer alan önemli miktardaki çalışmanın farkındaydı.
“Bu tür şeylerin ilerlemesini sağlamak için hükümetteki meslektaşlarımızla çok yakın çalıştığımızdan emin olmak da dahil, gidilecek uzun bir yol var” dedi.
“Teknolojinin sadece bize değil genel nüfusa vaat ettiği muazzam avantaj göz önüne alındığında, endüstrimizdeki düzenleyici ortamların GenAI ile daha özgür bir şekilde deneyler yapabileceğimiz şekilde ayarlandığından emin olmak için hükümetle birlikte çalışmayı çok isteriz. ”
Teknolojinin aynı zamanda Colonial First State’in iç kapasitesinin yanı sıra gelişmesi de gerekecek.
Bu bağlamda kurum, üretken yapay zeka deneylerini nispeten hızlı bir şekilde yürütmek için “güvenli bir ortam” oluşturarak beceri kazanmaya çalışıyor.
Buwalda, şirketin üretken yapay zeka stratejisi geliştirme, temel çalışma ve deneyler konusunda “eş zamanlı çalışma” konusunda bilinçli bir karar verdiğini söyledi.
“Sıralamak istemedik” dedi.
Bunun nedenlerinden biri, personel arasında teknolojinin potansiyeline ilişkin heyecanın bir kısmından yararlanmaktır.
“[Like] Herkes ChatGPT’nin lansmanından sonra personelimizin bu özelliği kullanma konusunda büyük bir talep gördüğünü gördük,” dedi Buwalda.
“Örgütümüzü korumaya ve engellemeye çalışmak yerine buna karar verdik. [staff] bunu kullanarak, onların öğrenmesi, plan yapması ve deney yapması için çok hızlı bir şekilde bir ortam yaratırdık ve biz de tam olarak bunu yaptık.
“Misyonumuz onların bunu kullanmasını engellemek değil, bunu Colonial First State sınırları içinde ve güvenli bir ortamda yapmaktı… burada özel bilgilerimizin genel bulutta herhangi bir yere gitmeyeceğini biliyoruz. bundan doğabilecek diğer komplikasyonlar.
Buwalda, korumalı alan tarzı ortamın aynı zamanda düzenleme ve risk endişelerini gidermeye yardımcı olduğunu söyledi.
“Düzenlenmeye tabi bir sektörde olmak güvenin inanılmaz derecede önemli olduğu anlamına geliyor ve bu nedenle yapay zekayı nasıl kullandığımız konusunda çok dikkatli davranıyoruz çünkü sektörümüzde hataya çok az yer var. Bu yetenekleri kendimizi çok rahat hissedeceğimiz bir şekilde kullandığımızdan emin olmalıyız” dedi.
“İşte bu yüzden kuruluş içinde başlıyoruz; daha fazla bilgi edinmek, denemek, bu teknolojileri öğrenmek, onları döngüde bir insanla ve destekli bir şekilde müşteriye yaklaştırmadan önce bunları benimsemek.
“Güven oluşturduğumuzda ve halüsinasyonlar ve denetlenebilirlik gibi şeylerin daha az sorun haline geleceğini umduğumuzda, bunu farklı bir şekilde, yardımsız bir şekilde kullanmayı düşünebiliriz. Ama biz bundan çok uzaktayız.”
Buwalda, denetlenebilirliğin makine destekli karar almaya özgü bir sorun olmadığını kaydetti; Bazı durumlarda, insanlardan nasıl bir karara vardıkları konusunda şeffaflık ve mantık aramak gerekli olabilir.
Ancak bu açıklanabilirliğe sahip olmanın önemli olduğunu ekledi.
“Cevabın gerekçesinin ne olduğunu bulmaya çalışmalıyız ve [like] bir insana şöyle bir soru sorarsınız: ‘Bu cevaba nasıl ulaştığınızı bana açıklar mısınız?’
“Henüz o noktaya gelmedik ama benzer şekilde GenAI’dan elde edilen bir sonucun ardındaki mantığın ne olduğunu, özellikle de bununla ilişkili kaynak belgelerin neler olduğunu anlamaya çalışıyoruz ve bu şekilde zaman içinde elde edebileceğimiz güveni inşa ediyoruz. Ortaya çıkan yanıtlar konusunda çok yüksek düzeyde kesinlik var.”
Ry Crozier, Microsoft’un konuğu olarak Sidney’deki Microsoft AI Tour etkinliğine katıldı.