Güvenilir yapay zeka için güvenilir veriler neden önemlidir?


Yapay zekanın (AI) büyük ölçüde araştırma projeleri, niş uygulamalar ve hatta bilim kurgu ile sınırlı olduğu onlarca yıldan sonra, artık ana akım bir iş aracı haline geldi.

Özellikle Google’ın Bard (şimdiki Gemini), Mistral ve ChatGPT gibi uygulamalar tarafından desteklenen üretken yapay zeka (GenAI) halihazırda işyerlerini etkiliyor.

Örneğin endüstri analisti Gartner, çalışanların %95’inin 2026 yılına kadar günlük görevlerini tamamlamak için rutin olarak GenAI’yı kullanacağını öngörüyor.

Aynı zamanda, giderek daha fazla kuruluş, halkın teknolojiyle daha doğal bir şekilde etkileşime girmesine olanak tanıyan “sohbet robotlarına” ve diğer hizmetlere güç sağlamak için GenAI’yi kullanıyor. Büyük dil modelleri (LLM’ler), bilgisayarların kullanıcılarla insan konuşmasına benzer bir şekilde iletişim kurmasına olanak tanır ve modellerin kendisi, en belirsiz sorulara bile yanıt bulmak için internetin geniş kaynaklarını tarayabilir. Sorunların ortaya çıkabileceği yer burasıdır.

Yapay zekanın, riskleri ve faydalarıyla birlikte hem Gartner’ın Londra’da düzenlenen Veri ve Analitik Zirvesi’nin hem de 2024 Tech.EU zirvesinin ana odak noktası olması şaşırtıcı değil.

GenAI araçları önyargılı sonuçlar ve hatta tamamen yanlış sonuçlar yaratmakla suçlanıyor. Bu halüsinasyonlar, işletmelerin itibar kaybına yol açmasının yanı sıra müşterilere tazminat ödemek zorunda kalmasına da yol açtı.

Gartner’dan Alys Woodward, firmanın Veri ve Analitik Zirvesi’nde şunları söyledi: “Yönetim, yapay zeka destekli veri ürünleri sunarken daha da kritik hale geliyor.” “Yapay zeka ile istenmeyen sonuçlar hızla ortaya çıkabiliyor. GenAI’nin başarılı uygulamalarının bazı örneklerini zaten gördük. Bu kuruluşlar teknolojiyi uygun korkuluklar ve hedeflenen kullanım senaryolarıyla kullanıyor ancak yapay zeka destekli veri ürünlerimizin başımızı ne zaman belaya sürükleyeceğini asla bilemeyiz.”

Firmalar zaten yapay zeka kullanılarak alınan kararlardan düzenleyiciler ve mahkemeler tarafından sorumlu tutuluyor. Haziran ayından itibaren yürürlüğe girecek olan Avrupa Birliği (AB) Yapay Zeka Yasası, yeni yükümlülükler getirmenin yanı sıra yeni cezalar da getirecek. En ciddi yasa ihlallerine ilişkin cezalar, GDPR ihlallerinden daha fazla, küresel cironun %7’si kadar yüksek olacak.

Ancak Yapay Zeka Yasası, kuruluşların yapay zeka kullanımları konusunda daha dikkatli ve şeffaf olmaları konusunda bir uyandırma çağrısıysa, aynı zamanda onları yapay zeka modellerinin yaptıkları sonuçları nasıl oluşturduğuna daha yakından bakmaya da teşvik edecektir.

Bu da hem eğitim modelleri hem de yapay zekanın çıkarım veya operasyonel aşaması sırasındaki verilerin kalitesine bağlıdır. Mevcut büyük dil modelleri öncelikle internetten toplanan halka açık verilere dayanmaktadır. Her ne kadar firmaların kendi verilerini eğitim ve çıkarım için kullanmalarına izin verecek adımlar atılıyor olsa da [oracle]Yapay zeka modellerinin kullandığı gerçek algoritmalar şeffaf değildir.

Yapay zeka tedarikçilerinin bu “kara kutu” yaklaşımı, hem müşterilerle ilişkilerde hem de işe alım gibi alanlarda önyargı ve potansiyel ayrımcılık konusunda endişelere yol açtı. Kuruluşların ayrıca kendi özel verilerinin modelleri eğitmek için kullanılıp kullanılmadığı konusunda da endişeleri olacak (ana yapay zeka tedarikçileri artık bunu yapmadıklarını söylüyor), hassas bilgilerin kullanımıyla ilgili gizlilik endişeleri ve istemler de dahil olmak üzere verilerin yapay zeka araçlarından dışarı sızıp sızmayacağı konusunda endişeler olacak. .

Gartner’da gizlilik konusunda uzman başkan yardımcısı analisti Nader Henein, “Kuruluşlar yapay zeka yeteneklerini kullanmaya başladığında güven, risk ve uyumluluk soruları çok önemli hale geliyor” dedi.

Ancak kuruluşların dışarıdan getirdikleri yapay zeka araçları nedeniyle giderek daha fazla riske maruz kaldıklarını da sözlerine ekledi.

Bunlar arasında Gemini veya ChatGPT gibi belirli yapay zeka araçlarının yanı sıra masaüstü araçları ve tarayıcılardan kurumsal paketlere kadar diğer uygulamalara yerleşik yapay zeka işlevleri de yer alıyor. “Neredeyse herkes bir veya daha fazla SaaS kullanıyor [software-as-a-service] aracı ve birçok 1716913147 Yapay zekanın etkin olduğu yeteneklere sahipler” dedi. “Yapay Zeka Yasası buna işaret ediyor ve bu riski anlamanız, ölçmeniz ve sahiplenmeniz gerektiğini söylüyor.”

Veri kalitesi

Buradaki zorluk, yapay zekanın kuruluşta nerede ve nasıl kullanıldığının yanı sıra verilerin, özellikle de modellerin eğitimi için kullanılan verilerin kalitesinin belirlenmesidir. Gartner’dan Henein’ın önerdiği gibi yapay zeka da herhangi bir analitik sistemle aynı veri sorunlarına sahiptir: içeri giren çöp eşittir dışarı çıkan çöp.

Ancak yapay zekayla çıktılarını göründüğü gibi kabul etme olasılığımızın daha da yüksek olduğunu söyledi. Henein, “İnsanlar otomatik karar verme sistemlerinden gelen önerileri tercih ediyor, çoğu zaman kendi kararlarını göz ardı ediyor” dedi. “Fakat çok ayrıntılı, referanslı ve son derece anlamlı yanıtlarla bu yeni nesil halüsinasyonlar, otomasyon önyargısını yeni boyutlara taşıyor.”

Çoğu şey yapay zekanın desteklediği karar türüne de bağlıdır; bazı araçlar kuruluş için diğerlerinden daha büyük risk oluşturur.

AON küresel gizlilik teknolojisi ve operasyon direktörü Tharishni Arumugam, “Bu en zor şeylerden biri” dedi. “İnsanların çoğu zaman ‘Yapay zekanın en küçük kullanımı hakkında bilgi edinmek istiyorum’ diye düşündüğünü görüyorsunuz. Aslında üçüncü tarafınızın kullandığı küçük bir çeviri hizmeti hakkında gerçekten bilgi sahibi olmanız gerekiyor mu? Muhtemelen hayır, ancak üçüncü bir tarafın sağlık bilgilerinizi çalışanlarınıza tahmine dayalı analiz sağlamak için ne zaman kullandığını bilmek istiyorsunuz. Ve şu anda satıcı perspektifinden bilmemiz gerekenler konusunda büyük bir yanlış anlama var.”

Bunun doğrudan veri yönetimiyle bağlantılı olduğunu ve olgun veri yönetimi politikalarına sahip kuruluşların yapay zekanın tuzaklarına düşme olasılığının daha düşük olduğunu söyledi.

Bu, temel veri kalitesinin yanı sıra, Gartner’ın belirttiği gibi, verilerin hem doğru hem de önyargı ve halüsinasyonlardan uzak, güvenilir sonuçlar üretecek kadar çeşitli olup olmadığını da kapsar. Buna bazen “Yapay zekaya hazır veriler” adı veriliyor ve Gartner, henüz çok az kuruluşun bu tür verilere sahip olduğunu gerçekten söyleyebildiği konusunda uyarıyor.

Güven kaybı

Kuruluşlar yapay zeka modellerini bir karar alma süreci boyunca birbirine bağladığında sorun daha da kötüleşiyor. Her model bir sonrakini besledikçe nihai sonuçlara olan güven düzeyi düşecektir. Ancak bu, kullanıcı veya tüketici için açık olmayabilir.

Henein, “Çok büyük modellerin inanılmaz miktarda veriye erişimi var” dedi. “Bu verilerin çoğu internetten geliyor ve hepimiz biliyoruz ki internet, içerik kalitesi açısından sizin istediğiniz kadar derlenmemiş.

“Ve bu temel bir sorun” dedi. “Bu halüsinasyonların merkezinde bu var.”

Henein’e göre modeller şu anda ne yüzde cinsinden ne de kırmızı, sarı ve yeşil gibi basit bir ölçekte doğruluklarına ilişkin rehberlik sağlamıyor. “Cevabın doğruluğuna dair bu göstergeye sahip olsaydık, belki de halüsinasyonlarla ilgili bazı endişeleri hafifletebilirdi” dedi.

Verilerin kökeni

Güven aynı zamanda sistemler arasında hareket eden verilerin kökenini anlamak anlamına da gelir.

Bu, kurumsal sistemlerden veya veri ambarlarından ve göllerden yapay zekaya taşınan verilerin yanı sıra – potansiyel olarak – diğer modellere girdi olarak veya hatta potansiyel olarak yapay zekayı eğitmek için kullanılan yapay zeka sonuçlarını da içerir. Gartner, iki yıl içinde şirketlerin dörtte üçünün, makine öğrenimi modellerini eğitmek için kullanılabilecek sentetik veriler oluşturmak için GenAI’yi kullanacağını öngörüyor.

Veri bilimcilerinin ayrıca riski azaltmak ve araçların kötüye kullanılmasını önlemek için yapay zeka sistemlerine korkuluklar kurmaları gerekiyor.

Bu, kişisel olarak tanımlanabilir verilerin, sağlık bilgilerinin, fikri mülkiyetin ve hatta kontrol edilmemiş ve niteliksiz veri kaynaklarının kullanımının sınırlandırılmasını veya kısıtlanmasını içerebilir.

Veri yönetişimi ve veri zekası firması Alation’un baş teknoloji sorumlusu Junaid Saiyed, “Sonuçta, modele beslediğiniz veriler, modellerinizi eğitmek için kullandığınız veriler son derece önemlidir” dedi.

“Doğru, güvenilir verilerle beslenmezseniz pek de iyi olmayan öneriler ve tahminler alırsınız. Yapay zekanızdan ne elde etmek istiyorsanız, modellerinizden ne elde etmek istiyorsanız güvenilir veriler, güvenilir yapay zekaya yol açar.

“İnsanlar bu güven kodunu arıyor” diye ekledi. “Bu sadece son cevap değil. Yol boyunca güveni bilmek istiyorlar. Modele eklenen verilere ve modelin kendisine olan güveniniz nedir? Eğer cevap açıklanabilirse, daha az karmaşık bir model bile sizin için sorun olmayabilir.”

Güven oluşturmak

Baş bilgi güvenliği sorumluları ve baş veri sorumluları bu güveni oluşturamadığı sürece, kullanıcılar yapay zeka araçlarını kullanma konusunda isteksiz olacak ve müşterilerin onların tavsiyelerine veya tavsiyelerine güvenmeleri pek mümkün olmayacaktır.

Yapay zeka ve makine öğrenimi araştırmacısı, PrivateGPT ve ticari yapay zeka hizmeti Zylon’un kurucu ortağı ve Tech.EU zirvesinde konuşmacı olan Daniel Gallego Vico, “İşletmeler arası ilişkilerde bu seviyede bir güven sağlamanız gerekiyor” dedi.

Örneğin bir mühendis, verilere güvenmiyorsa bir tasarım için LLM’nin tavsiyesini kullanmayacaktır. “Eğer bir köprü inşa ediyorsam ve köprü çökerse, hukuk yüksek lisansı değil, avukatlar peşime düşecektir” dedi. “LLM’nin ürettiği şeyin doğru olduğundan emin olmam gerekiyor.”

Vico’ya göre yapay zeka aracı ne kadar güçlü olursa olsun, insanların iş akışının bir parçası olarak kalması gerekiyor. “LLM’nin cevabı oluşturmak için hangi veri kaynaklarını kullandığını anlamalısınız” dedi. “Bu şekilde tekrar kontrol edebilirsiniz.”



Source link