Bu podcast’te, Capgemini’nin bir parçası olan Syniti ile Solutions Architect Cody David ile yapay zeka (AI) iş yükleri için veri kalitesinin sağlanmasının önemi hakkında konuşuyoruz.
AI’ya güvenebilmek, kullanımının temelini oluşturuyor. Ve burada sonuçlarının güvenilir olduğundan emin olmalıyız. Bu yalnızca AI, kopyalar ve eksik verilerle dolu bir veri kümesinde eğitilmişse böyle olacaktır.
Bu arada, AI, David’in veri kalitesine yardımcı olmak için kullanılabileceğini iddia ediyor, örneğin hatalı sonuçlara yol açabilecek veri kümelerindeki sorunlar bulmak gibi.
Büyük paket, kuruluşların işini yapabilmesi ve güvenilebilecek güvenilir sonuçlar üretebilmesi için “önce veri” bir tutuma ihtiyaç duymaları ve kazanılabilecek hızlı kazançları özetlemesidir.
Antony Adshead: AI kullanım durumları için işletmede veri kalitesindeki temel zorluklar nelerdir?
Cody David: Gördüğüm yapay zeka için veri kalitesindeki en büyük zorluklardan biri güven.
Birçok kişi bir AI sistemini tek bir kara kutu olarak görür. Yanlış bir içgörü veya eylem ürettiğinde, buna AI hatası derler ve güvenini kaybederler. Bazen kalıcı olarak, bu güveni kaybedebilirler.
Ancak asıl sorun genellikle kötü veri kalitesinde yatmaktadır. Bu, AI çözümlerinin gerçekte nasıl çalıştığına dair anlayış eksikliği ile birleşir.
Bir satış organizasyonu düşünün. Bir CRM var ve yinelenen müşteri kayıtları var. Ve bir AI çözümü en iyi müşterilerinizi yanlış sıralar, çünkü tüm işlemleri bir hesaba geri döndürmez.
Dolayısıyla, satış ekibi AI aracını suçluyor ve temel nedenin aslında zayıf veya tutarsız veriler olduğunu asla fark etmiyor. Bu, AI için veri kalitesi dediğimiz bir örnektir; Verilerin bu AI güdümlü süreçler için doğru ve hazır olmasını sağlamak.
Flip tarafında, bir AI çözümünün aslında bu örnekte verdiğimiz yinelenen kayıtları algılamaya ve birleştirmeye yardımcı olabileceği veri kalitesi için AI da vardır. Bence bir zorluk daha, veri kalitesinin tarihsel olarak sonradan düşünülmesidir. Kuruluşlar genellikle bu veri ilk zihniyeti olmadan ve bu sağlam veri temellerine sahip olmalarını sağlamadan önce AI’ya atlarlar.
Yani, bu eski sistemlere, binlerce tablo ve onlarca yıl süren veri sorunları olan bu eski ERP sistemlerine sahipsiniz.
Bunların hepsi bu karmaşıklığa katkıda bulunur. Bu nedenle, bu AI girişimleri başarısız olduktan sonra çözümleri güçlendirmeye çalışmak yerine veri kalitesi sorunlarını proaktif olarak ele almak çok önemlidir. Bu verileri bu AI girişimlerinin ön ve merkezine koymalı ve daha sonra bu güvenilir AI çıktılarını destekleyecek kararlı çözümü belirlemeliyiz.
Bir kuruluşun yapay zeka için veri kalitesini sağlamak için atabileceği temel adımlar nelerdir?
David: Bence sistematik bir yaklaşım her zaman veri yönetişimi ile başlıyor.
Ve bu, verilerin nasıl toplandığı, depolandığı, temizlendiği, paylaşıldığı ve belirli iş süreçlerinin veya veri kümelerinin gerçek sahibi kim olduğunu bulduğu politikalarıdır. Bu standartlardan kimin sorumlu olduğunu bulmak çok önemlidir.
Bence bu öncelik vermek istiyorsunuz. Her şeyi aynı anda düzeltmeye çalışmak yerine, en büyük iş etkisini sağlayan alanlara odaklanın. Bu çok önemli bir ifade: Veri kalitesine göre düzeltmeye çalıştığınız en büyük iş etkisi nedir? Ve AI çözümlerinizi besleyenleri anlayın.
Burası bu hızlı galibiyetleri göreceksiniz. Şimdi, bu veri kalitesi, veri yönetişim programları hakkında konuşmaya başladığınızda sıklıkla ortaya çıkan bütçe endişeleri olacaktır. Ve ironik bir şekilde, uzun vadede kötü verilerle çalışmak daha pahalıdır.
Bence pratik bir çözüm küçük başlamaktır. Ölçülebilir finansal etkileri olan kritik bir iş süreci seçin. YG’deki gerçek tasarrufları göstermek için bunu pilot olarak kullanın.
Ve bu veri kalitesi iyileştirmelerinin maliyet azaltma veya daha yüksek işletme sermayesi gibi somut faydalara yol açtığını gösterdikten sonra, daha geniş bir veri yönetimi yatırımı için yönetim ile daha güçlü bir vakanız olacak. Bu veri kalitesi uygulamalarını veri iş akışına da yerleştirmelisiniz. Örneğin, doğrulama kurallarını veri yönetiminize entegre edin, böylece hatalar derhal yakalanabilir ve verilerin bu çözümleri etkilemesini önleyin.
Veri oluşturma üzerine böyle doğrulamalar koyamıyorsanız, otomatik raporlama yoluyla bunları hemen yakalamak için sistemleri ve süreçleri yerine koymalısınız.
Son olarak, her zaman bu sürekli iyileştirmeye odaklanacağını söyleyebilirim. Veri kalitesi metriklerini ölçün ve bunları, bu veri yönetişimini kuruluşunuza dokunarak, hedeflenen pilotlar aracılığıyla değerini kanıtlayarak yinelemeli iyileştirmeleri yönlendirmek için kullanın ve daha sonra güvenilir AI girişimleri için sürdürülebilir bir temel oluşturuyorsunuz.
Son olarak, işletmelerin veri kalitesi açısından ve yapay zeka için veri niteliklerini iyileştirebilecekleri bir veya iki hızlı galibiyet örneği olup olmadığını merak ettim.
David: Özellikle çok hızlı ROI’ler ve yüksek etkili iş süreçleri almaya çalışırken, veri kalitesi için hızlı kazanç elde etmeye çalıştığımız birkaç farklı örnek var.
Bir ERP sistemi alırsanız, MRO malzemeleri dediğimiz şeye sahibiz. Bunlar, bir üretim sürecinde ekipman için parça olanlardır. Ve bu malzemelere sahip olduğunuzda, genellikle bu makineleri onarmanıza izin verecek bir güvenlik stoğu veya bu öğelerin bir miktarını tutarsınız.
Bir bitki düşerse, potansiyel olarak günde milyonlarca dolar kaybedeceksiniz. Ve yinelenen malzemeleriniz varsa, örnek olarak, aslında ihtiyacınız olandan daha fazlasını saklıyorsunuz. Ve bu aslında bu veri kalitesini düzeltirseniz, o işletme sermayesini serbest bıraktığınız işletme sermayesidir.
Ve sonra, elbette, bu işletme sermayesini girişimlerinizin diğer bölümleri için kullanabilirsiniz.
Bir diğeri belki de satıcı indirimleri olabilir. Bir sistemde çoğaltılan satıcılarınız varsa ve harcadıkları para miktarına göre indirim yapma hakkına sahiplerse, bu belirli indirimleri fark etmeyeceklerdir. Bu da maliyet tasarrufuna sahip olabileceğiniz bir alan olabilir.