İşletmeler için Üretken Yapay Zekanın Risklerini ve Ödüllerini Tartmak


Yazan: Matt Cloke, Endava CTO’su

Üretken yapay zeka, satış ve pazarlama, müşteri operasyonları ve yazılım geliştirme gibi işlevlerde bir sonraki üretkenlik dalgasını açığa çıkarmaya, rolleri dönüştürmeye ve performansı artırmaya hazırlanıyor. McKinsey tarafından hazırlanan yakın tarihli bir rapora göre bu, bankacılıktan yaşam bilimlerine kadar sektörlerde trilyonlarca dolarlık değerin kilidini açabilir.

Üretken yapay zeka platformlarını veya büyük dil modellerini (LLM’ler; bu gelişmiş araçların çoğunun temelini oluşturan teknoloji) benimseyen işletmeler, performansı artıran ve çalışanların programlarını daha anlamlı işler için serbest bırakan yeni ve gelişmiş yetenekler yaratabilir; Düzenleme ve düzenleme, özetleme ve soruları yanıtlama, içerik taslağı hazırlama ve daha fazlası gibi bilişsel görevler için hava koruması sağlar.

Ancak üretken yapay zeka hakkındaki heyecana rağmen teknoloji hakkında hâlâ öğrenilecek ve geliştirilecek çok şey var; doğasındaki eksikliklerden ve yasal zayıflıklardan düzenleyici zorluklara kadar. Bu konular üzerinde dikkatle düşünülmeyi gerektirse de, iş dünyası liderlerini hiçbir şekilde “bekle ve gör” yaklaşımı benimsemeye itmemelidir. Elbette, üretken yapay zekayı düşünen işletmelerin dikkatli ilerlemesi gerekiyor, ancak başarının anahtarı, gerekli özeni göstermek ve üretken yapay zekanın sunabileceği riskleri ve ödülleri tartmaktır.

Üretken yapay zekayla nasıl başlayacağınızı anlamak

Üretken yapay zeka ve büyük dil modelleri, üretkenlik için güçlü motorlardır ancak yanılmaz olmaktan uzaktır. Yapmak üzere eğitildikleri şey basittir: Kullanıcı istemlerine akla yatkın gelen yanıtlar üretmek. Ancak modellerin çeşitli veri kümeleri üzerinde eğitilme şekli nedeniyle üretilen yanıtların doğru olup olmadığı her zaman açık değildir; kendileri de yanlış veya eksik olabilir. Yapay zeka “halüsinasyonları” olarak adlandırılan bu olgu sorunludur çünkü hatalı konu, doğrulanmış gerçeklerle aynı güvenle sunulur.

Yapay zeka halüsinasyonları bir şekilde gizemli olsa da, genellikle açık interneti temel alan genel amaçlı yapay zeka modelleri oluşturmanın bir sonucudur. Örneğin çoğu üretken yapay zeka modeli (ChatGPT gibi), Facebook, Reddit ve Twitter gibi kaynaklardan alınan devasa bilgi depoları üzerinde eğitiliyor. Bu verilerin güvenilmez yapısı; yanlış bilgi, fikri mülkiyet ve telif hakkı ihlalleri, gizlilik endişeleri ve önyargı gibi risklere maruz kalmayla sonuçlanır. Soruna katkıda bulunan bir diğer faktör de, çoğu üretken yapay zeka modelinin birbirine zincirlenmiş olmasıdır ve zincirleme, yapay zeka yönlendirmesinde gelişmiş performans ve esneklik gibi belirli faydalar sağlasa da, aynı zamanda önyargıların ve yanlış bilgilerin tekrar tekrar yayılmasına da yol açabilir.

Peki üretken yapay zekayla ilgilenen işletmeler bu sorunlara karşı nasıl korunabilir? Genel amaçlı yapay zeka modellerinin kalıcı olacağını varsaymak yanlış olmaz; o halde gelin bunları uygulama risklerini nasıl en aza indirebileceğimize bakalım. Yöntemlerden biri, yapay zeka eğitim modellerini özelleştirilmiş veya dahili veri kümelerini kullanarak önceden belirlenmiş bir değer kümesiyle sınırlandırarak uygulamayı “kuantize etmektir”. Bunu yapmak, bir şirketin özel verileri kullanılarak eğitilen, hedeflenen geniş bir dil modeli oluşturur, yapay zeka modelinin sağlayabileceği yanıtlarda daha kesin olmasını sağlar ve dolayısıyla hata ve yanlışlık marjını daraltır. Bu eğitim modu tüm sektörlerde daha yaygın hale geliyor ve Walmart gibi ilk benimseyenler, “Asistanım” özelliği aracılığıyla bu yaklaşımı uygulamada başarı elde ediyorlar.

Ayrıca, bir gerçeğin niteliğini ve doğru olma olasılığını soran, kullanıcının yalnızca en yüksek güven derecesine sahip yanıtlar istediğini söylemesine olanak tanıyan başka araçlar da geliştirilmektedir. Bu yaklaşım, birine soru sormaya benzer; böylece kişi, kendisinden istenen kesinlik düzeyine bağlı olarak size vereceği cevabı daraltabilir.

Veri güvenliği, uyumluluk ve düzenleme arasındaki noktaları birleştirme

Yapay zeka modellerinin işletmeler için kalıcı değer yaratacak geniş bir uygulama yelpazesine sahip olduğuna şüphe yok, ancak teknoloji ilerledikçe siber güvenlik saldırılarında da bir artış olması muhtemel. Kötü aktörlerin başkalarının seslerini ve yüzlerini taklit etmek için deepfake kullanması gibi aşırı kimlik avı senaryoları akla yatkındır. Bu nedenle kuruluşların, kötüye kullanımı önlemek için işin her düzeyinde bu risklere ilişkin farkındalığı nasıl artıracaklarını ve aynı zamanda güvenliği kuruluş kültürünün dokusuna nasıl yerleştireceklerini düşünmeleri gerekir.

Ne yazık ki, veri kümelerinin nasıl oluşturulduğu ve yapay zeka modellerine nasıl dahil edildiği, uyumluluk kaygıları ve mevzuat arasındaki noktaları birleştiren bir yönetim organı hâlâ yok. Ve bir yönetişim çerçevesi oluşturulana kadar yapay zeka modellerini kullanan kuruluşların, verilerini güvende tuttuklarından emin olmak için geleneksel veri çözümlerine uygulanan aynı düzeyde düzenleyici titizliği ve sektör kontrollerini uygulaması gerekecek. Bu, yapay zeka çözümleri için kullanılan verilerin kalitesinin ve etik hususların ölçülmesini içerir. İzlemenin diğer yolları arasında modelin ince ayarı, kendi kendine teşhis, anında doğrulama veya döngüdeki insan yaklaşımı yer alır.

Şu anda gelecekteki düzenleyici çerçevelerin neye benzeyeceğini tanımlamaya başlayan ülkeler çoğunlukla tek tek ülkeler veya Avrupa Birliği gibi büyük bloklar. Tahminim, standart düzenlemelere giden yolun biraz zaman alacağı ve bazı yanlış adımların kendi kendine çözülmesi gerektiği yönünde. Uzun vadede, yapay zeka modellerini yönetme sorumluluğunun, nükleer silahların Birleşmiş Milletler tarafından nasıl yönetildiğini yansıtacak şekilde, eninde sonunda hükümetlere ait olması mümkündür: bilgi paylaşımına yönelik küresel bir çerçeve ve dikkatsiz davranışları caydırmak için cezalandırıcı bir mali unsur tarafından yönetilir. teknolojinin kullanımı.

Etraflı, Üretken yapay zeka dünyasına dalmadan önce dikkate alınması gereken çok şey var. Ancak özelleştirilmiş, yinelenen ve çevik bir yaklaşımla, bu dinamik ve sürekli gelişen alandan kazanılacak değerli ödüller ve faydalar vardır. Tüm ayrıntıları öğrenmeye başlamanın en iyi yolu, çekici bir fayda-maliyet oranına sahip düşük riskli bir kullanım durumu bulmak ve neyin işe yaradığını test etmektir.

Reklam



Source link