Yapay zekanın (AI), özellikle üretken AI (genai) ve chatbotların hızlı büyümesi, işletmelere müşterilerle çalışma, verimlilik artış ve emek yoğun görevleri hızlandırma biçimlerini geliştirmek için zengin bir fırsat sunar.
Ancak Genai de sorunlar getirdi. Bunlar güvenlik kusurları ve gizlilik endişelerinden, AI yanıtının tamamen yanlış olduğu önyargı, doğruluk ve hatta halüsinasyonlarla ilgili sorulara kadar uzanmaktadır.
Anlaşılır şekilde, bu milletvekillerinin ve düzenleyicilerin dikkatini çekti. Bu arada, müşterilerin dahili uyum işlevleri kendilerini hızla gelişen ve karmaşık bir teknolojiyle yakalama oynarken buldular.
Bu makalede, AI’ya ve yasal ve düzenleyici ortamlara uymaya neden olan potansiyel risklere bakıyoruz. Bunların hepsi, organizasyon uyumluluk ekiplerinin zayıflıkları ve güvenlik açıklarını bulmak için Genai kullanımında kaputun altına iyi bir şekilde bakması gerektiği ve kaynak ve çıktı verilerinin ne kadar güvenilir olduğu anlamına gelir.
En yaygın işletme AI projeleri çoğunlukla genai veya büyük dil modellerini (LLMS) içerir. Bunlar sohbet botları olarak çalışır, sorguları yanıtlar veya müşterilere ürün önerileri sağlar. Belgeleri aramak, özetlemek veya tercüme etmek bir başka popüler kullanım durumudur.
Ancak AI, sahtekarlık tespiti, gözetim, tıbbi görüntüleme ve teşhis gibi alanlarda da kullanılmaktadır; Bahislerin çok daha yüksek olduğu tüm alanlar. Ve bu, AI’nın nasıl veya kullanılıp kullanılmayacağı hakkında sorulara yol açtı.
Kuruluşlar AI sistemlerinin hataların yanı sıra yanlış veya yanıltıcı sonuçlar üretebileceğini bulmuşlardır.
Gizli Veriler
AI Tools, doğrudan veya çalışanların gizli belgeleri bir AI aracına yükledikleri için gizli verileri de sızdırmıştır.
Sonra önyargı var. En son AI algoritmaları, özellikle LLM’lerde oldukça karmaşıktır. Bu, bir AI sisteminin sonuçlarına nasıl geldiğini tam olarak anlamayı zorlaştırır. Bir işletme için, bu da sohbet botu gibi bir AI aracının ne yaptığını açıklamayı veya hatta haklı çıkarmayı zorlaştırır.
Bu, özellikle düzenlenmiş endüstriler ve kamu sektöründeki işletmeler için bir dizi risk yaratır. Düzenleyiciler, mevcut uyum çerçevelerini Avrupa Birliği (AB) AI Yasası gibi mevzuatın üstünde AI risklerini karşılayacak şekilde hızla günceller.
Endüstri analisti Forrester tarafından yapılan araştırmalar, bazıları güvenlik ile ilgili olan Genai’den kaynaklanan 20’den fazla yeni tehdidi tanımlamaktadır. Bunlar arasında AI sistemleri oluşturmak için güvenli kod kullanılmaması veya AI modellerini kurcalayan kötü amaçlı aktörler bulunur. Veri sızıntısı, veri kurcalama ve veri bütünlüğü eksikliği gibi diğerleri, bir model güvenli olsa bile düzenleyici başarısızlıklara neden olur.
Durum, çalışanların gayri resmi olarak AI araçlarını kullandıkları “Gölge AI” nın büyümesiyle daha da kötüleşiyor. Güvenlik ve uyumluluk alanında çalışan bir danışman olan James Tore, “En yaygın dağıtımlar, işletmelerin farkında bile olmadığı bile.” Diye uyarıyor.
“Bu, departmanlarda Gölge BT’den, kurumsal verileri besleyen bireylere, rollerini basitleştirmek için AI’ya kadar değişmektedir. Çoğu şirket AI çevresinde uyumu tam olarak düşünmedi ve hatta kötüye kullanımı önlemek için sınırlı kontrolleri olanlar.”
Bu, baş bilgi memurlarının (CIO’lar) ve veri memurlarının, AI’nın işletme genelinde kullanılması ve kontrol önlemlerini yerine getirebileceği tüm yollara bakmasını gerektirir.
AI’nın kaynak veri sorunu
İşletmelerin kontrol etmesi için ilk alan, yapay zeka ile veri nasıl kullandıklarıdır. Bu, model eğitimi ve yapay zekanın çıkarımı veya üretimi için geçerlidir.
İşletmeler, verileri AI amaçlı kullanma haklarına sahip olduklarını kontrol etmelidir. Bu, özellikle üçüncü taraf verileri için telif hakkını içerir. Yapay zeka için kullanılan kişisel tanımlanabilir bilgiler, Genel Veri Koruma Yönetmeliği (GDPR) ve endüstri düzenlemeleri kapsamındadır. Kuruluşlar, mevcut veri işleme onayı AI uygulamalarını kapsar.
Sonra veri kalitesi sorunu var. Bir kuruluş bir modeli eğitmek için düşük kaliteli veriler kullanıyorsa, sonuçlar yanlış veya yanıltıcı olacaktır.
Bu da uyum riski yaratır – ve bir kuruluş anonimleştirilmiş veriler kullansa bile bu riskler kaldırılmayabilir.
“Kaynak veriler, kurumsal yapay zeka’daki en çok gözden kaçan risk alanlarından biri olmaya devam ediyor, Sify Technologies’in baş çözüm memuru olan Ralf Lindenlaub, bir BT ve bulut hizmetleri sağlayıcısı. Bu verilerin çoğu yeniden tanımlanabilir veya sistemik önyargı taşıyabilir.
“Global teknoloji sağlayıcılarının büyük dil modellerinde kullanılan genel veriler sıklıkla Avrupa gizlilik standartlarını karşılayamıyor. Yapay zekanın gerçekten güvenilir olması için kuruluşlar, özellikle modeller bireyleri veya düzenlenmiş sonuçları etkileyen kararları etkileyebildiğinde, kullandıkları veri kümelerini dikkatlice seçmeli ve kontrol etmelidir.”
Bir başka karmaşıklık düzeyi, AI modellerinin çalıştığı yerlerle birlikte gelir. Şirket içi AI’ya ilgi artmasına rağmen, en yaygın LLM’ler bulut tabanlıdır. Firmaların verileri bulut tedarikçilerinin sakladığı yere taşıma iznine sahip olduklarını kontrol etmeleri gerekir.
AI çıktıları ve uyumluluk
AI modellerinin çıktıları için başka bir uyum ve düzenleyici sorunlar da geçerlidir.
En belirgin risk, AI’dan gelen gizli sonuçların sızdırılması veya çalınmasıdır. Ve firmalar AI sistemlerini dahili belgelere veya veri kaynaklarına bağladıkça, bu risk artar.
AI kullanıcılarının gizli bilgileri istemleri yoluyla kötü niyetli veya yanlışlıkla ortaya koydukları durumlar olmuştur. Bir neden, uygun korumalar olmadan modelleri eğitmek için gizli verileri kullanmaktır.
O zaman AI modelinin çıktısının yanlış olduğu riski var.
Sify’den Lindenlaub, “AI çıktıları kendinden emin görünebilir, ancak tamamen yanlış, önyargılı ve hatta gizlilik ihlal edici olabilir” diye uyarıyor. “İşletmeler, ayrımcı işe alımdan yanlış yasal veya finansal tavsiyelere kadar kusurlu bir sonucun ne kadar zarar verebileceğini sık sık hafife alıyorlar. Titiz doğrulama ve insan gözetimi olmadan, bu riskler operasyonel yükümlülükler haline gelir.”
Ve risk, bir dizi modelin bir iş sürecini yürütmek için birlikte çalıştığı “ajan” AI sistemleri ile daha büyüktür. Bir modelden çıktı yanlış veya önyargılıysa, bu hata ajandan ajana geçerken birleştirilir.
Düzenleyici sonuçlar şiddetli olabilir, çünkü hatalı bir çıktı çok sayıda müşterinin krediyi reddetmesine veya bir iş görüşmesinin reddedilmesine neden olabilir.
“Yapay zekanın çıktılarıyla ilgili en belirgin sorun, bilgi değil dil üretmeleridir” diyor James. “Sunulma biçimlerine rağmen, LLM’ler analiz etmiyorlar, eğitildikleri gibi yerleşik olanlar dışında, gerçeklere karşı gerçeklere karşı herhangi bir anlayışa, hatta ağırlıklara sahip değiller.
“Çılgınca halüsinasyon yapıyorlar ve daha da kötüsü, dilde iyi oldukları için bunu çok ikna edici şekillerde yapıyorlar” diye ekliyor. “Başka bir LLM tarafından değil, gerçek kontrolü olmadan asla güvenilemezler.”
İşletmeler AI’yı uyumlu bir şekilde kullanabilir ve kullanabilirler, ancak CIO’lar ve baş dijital memurların eğitim, çıkarım ve yapay zekanın sonuçlarını nasıl kullandıkları konusunda uyum risklerine dikkat etmeleri gerekir.