Hype, Ajan yapay zeka (AI) üzerinde güçlüdür ve potansiyel iş faydaları gerçektir. Bununla birlikte, daha büyük özerklikleri, riski azaltmak ve maliyet patlamalarından kaçınmak için korkulukları başlatmadan raylardan çıkabileceğiniz anlamına gelir.
Kimlik yönetim platformu Teleport’un genel müdürü Ev Kontsevoy, iyi haber, katı matematik tarafından desteklenen erişim kontrol teorisine sahip olduğumuzu söylüyor: “Yani bunun nasıl yapılması gerektiğini biliyoruz ve yeni bir şey icat etmemiz gerekmiyor.”
Örneğin, veri merkezindeki AI aracılarının bilgi erişimine ilişkin kısıtlamalara ihtiyacı vardır. Bir korkuluk perspektifinden bakıldığında, bu, örneğin, copilot tipi bir dizüstü bilgisayar uygulamasının başarısına veya başarısızlığına karşı “çok daha naster bir sorun” olabilir.
İlk olarak, AI’nın sahip olacağı kimliği bulun: Anonim olamazlar. Gerçekten de, Kontsevoy’un görüşü, AI ajanlarının insan mühendisleri, iş yükleri ve yazılım uygulamaları çalıştıran makineler için zaten kullanılmış kimlik türüne sahip olması gerektiğidir.
Kontsevoy, “Erişim kontrol teorisi ihlal edildiğinde, bunun nedeni kimlik parçalanmasıdır” diyor. “Örneğin, Datacentres’deki kimliğin parçalanması, bilgisayar korsanlarının sömürülmesi ve AI ajanlarının yanlış davranması için bir fırsat yaratıyor.”
Soruları cevaplamak için, AI temsilcisinin çalışan, uygun, uygun ve mevcut olan verilere erişmesi gerekir. Veritabanlarıyla konuşması ve içeriklerini anlaması gerekir. Kısıtlamalar – “veya korkuluklar” – buna göre uygulanmalıdır. Örneğin, insan kaynakları, çalışan tazminatı hakkında sorular sormaya erişebilir (ya da yargı yetkisine bağlı olarak). Kimlik parçalanması, politikaları ve uyumluluğu zorlamayı bir mücadele haline getirir.
İkinci ihtiyaç, ajanların bilgiye nasıl eriştiğinin standardizasyonudur. Antropic’in Model Bağlam Protokolü (MCP), Kasım 2024’te açıklanan, uygulamaların bina ajanları, üstte karmaşık iş akışları veya birlikte çalışabilirlik de dahil olmak üzere büyük dil modellerine (LLMS) bağlamı nasıl sağladığını standartlaştırıyor.
“MCP son derece hızla kabul edildi” diyor Kontsevoy. “Ve yine de [MCP] Bir referans uygulaması ile gelmediler, spesifikasyonun kendisi üstte erişim kontrolü ekleyecek kadar açık. ”
Dolayısıyla, şirketlerin bir güvenlik korkusu ayarlamak için güvenlik uzmanlığına sahip olmaları gerekmez. Temsilcileriniz MCP’yi “konuşursa”, bu korkuluk yetkilerini ayarlamak için bir teknoloji çözümü dağıtabilirler. Metod ayrıca maliyet kontrolü de dahil olmak üzere diğer korkuluk türleri için de çalışıyor.
Erken Günlerin Evlat edinilmesi
Şimdiye kadar, üretimde birkaç örnek çalışıyor. Birçok kuruluş için, Ajan AI henüz bir konuşmanın ötesine geçmedi.
AI ajanlarının AI model çıktılarını bir başkasına girebileceğini ve tam gözetim olmadan bir hedefe doğru çalışabileceğini düşünün. IBM’in AI ajanları hakkındaki video serisine göre, korkuluklar model, takım ve düzenleme katmanlarında dikkate alınmalıdır.
AI Lab başkan Peter Van Der Putten, iş akışı otomasyon uzmanı Pegasystems başkanlığında, birçok kuruluşun bu yıl veya bir sonraki yönetişim ve risk gibi ajan zorluklarını azaltacağını düşünmediğini söylüyor. “Bazıları gider, ‘Bir captcha bile geçemezler.’ O zaman inananlar ‘İstediğiniz kadar çok ajan yaratın ve amok koşmalarına izin verir’ diyorsunuz. Her iki görüş de kusurlu ”diyor.
Seçilmiş tek ajan kullanım durumları ile başlayın, ne kadar iyi performans gösterdiklerini ve kurumsal mimari eserlerinizde, iş akışlarınız, iş kurallarınız, uygun bağlam ve kullanıcı erişiminizdeki yer ajanlarını görün.
O zaman gerçeklikle kontrast – ajanlar doğru şeyi yapıyor mu ve hedeflerine ulaşıyorlar mı? Bunlar, bir işletmenin ajan yapay zekasını etkinleştirmek için uygulayabileceği stratejilerdir.
Van der Putten, “Bir sürü gereksinim atın, gerçek süreci görmek için süreç madenciliğini kullanın (insanların size sürecin olması gerektiğini söylediklerine karşı). Bunu temizleyin, başka gereksinimler koyun ve bunu size yardımcı olabilecek tasarım ajanlarına daha fazla girdi.” Diyor.
O zaman insan döngüde çünkü neyle aynı fikirde olduğunuzu görebilirsiniz. Ancak o zaman çalışma zamanında çok tahmin edilebilecek bir uygulama oluşturuyorsunuz. Tabii ki, “işleri otomatikleştiremez” ve her şeyin insan gözetimine ihtiyaç duyamazsanız, ajanlar doğru cevap olmayabilir, diye ekliyor van der Putten.
Her yön için doğru ajanları veya LLM’leri seçin ve bunun üzerine inşa edin. Sigortada, bir ajan riskleri, başka bir iddiayı değerlendirebilirken, bir diğeri diğer çalışanlarla ve hatta bir son müşteri ile etkileşime girebilir. Ve sonra, satış odaklı bir ajan bu durumda doğru cevap mı? Bu da bağlıdır – bağlam için tam araca ihtiyacınız vardır.
Daha sonra, üstte katmanlı bir ajan, belirli bir durumda çağırmak – ya da değil – bireysel adımları veya belirli iş akışlarını “anlayarak” çalışabilir; Sonunda bir sağ önceki çalışmaları kontrol edebilir. Ve bir barikata çarptığınızda, “insana geri dönersiniz”.
Sadece pistte, belirli görevler için uzmanlaşmış ajanların birbirleriyle konuştuğu üst üste çok ajan sistemleri katmanlamayı düşünebilirsiniz.
Van der Putten şöyle diyor: “Araçlar, dolandırıcılık veya benzeri olasılığı değerlendiren açık süreçlere, kurallara, politikalara ve belki de jeneratif olmayan öngörücü modellere ihtiyaç duyuyor. Bağlamı çekin, durumun ve talebin tam bir resmini alın.”
Faydaları Ölçme
Publicis Sapient veri stratejisi ve AI genel müdürü Simon James, bunu biraz daha akıllı robotik proses otomasyonu (RPA) olarak düşünün. Haritalama süreçleriyle başlayın ve AI ajanlarından hangisinin insan yargısına veya geleneksel otomasyondan yararlanabileceğini belirlemeye başlayın. Açık, uyumlu bir çerçeve tasarlamak yardımcı olabilir.
Ne kadar çok seçim yaparsanız, AI’nın sadece yanlış gitmesi için o kadar fazla kapsam vardır ve yönetilmesi o kadar zor olur. James, “Birkaç ajan birbirleriyle konuşurken, İngilizce’de değil, 20 sisteme gecikme ekleyerek birbirleriyle konuşurken bir yerde bir ölüm tekerleği var” diye ekliyor.
Ajan yapay zeka çok yeni ve insanlar genellikle becerilere sahip olmadığından, endüstri hala bir şeyler buluyor. Belki üç farklı rutin veya işlev çalıştırabilir ve aralarında seçim var, ancak orada çok fazla seçenek yok, James uyarıyor. “Ve bu, bir Salesforce sürümünün, örneğin, ERP veya CRM’ye veya başka bir şeyle nasıl bağlandığıyla ilgilidir, böylece mantığı birbirleri arasındaki mantığı geçebilir ve taşıma acı verici değildir.”
Platform Snaplogic’in Platformunda AI ve Veri Ürün Pazarlama Direktörü Dominic Wellington, birçok insanın hala Ajan AI’da “zor yol” olduğunu anladığını yineliyor: “Avukatlar ve uyumluluk dahil oluyor ve üretime girmeden önce zor sorular sorabilir. Projelerin% 80’i. Half% 80’i asla üretim yapmasını sağlıyor.
Genellikle pilotu başarıya güçlendiren bilgi alt kümesi, büyük bir şekilde çalışmaz. Kurumsal veritabanı veya CRM gibi “taç mücevherlerine” bağlanmak istediğinizde, bu verilere erişimi ve politika ve uygulamanın daha eksiksiz bir şekilde uygulanmasını yeniden düşünmeniz gerekebilir.
“Örneğin AstraZeneca iseniz, ilaç boru hattınızın bazı modelin eğitim verilerinde sarılmasını istemezsiniz” diyor. “Ve ‘zemin gerçeğine’ sahip olmak kritik. Haber yemimde asla birkaç günden fazla geri dönmek zorunda kalmam, bir avukatın var olmayan emsali gösteren bir örneği görmek için Chatgpt’e sordular-ve sadece avukatlar değil.”
Tabii ki, örneğin, alım artırılmış üretim (RAG) ile, LLM’nin belirli bir veri deposunda neler olduğuna dayalı olarak yanıt vererek, ne gördüğünü veya yanıtlayabileceğini kontrol sunarak, veri deposuna uygun bilgileri vektörleştirebilirsiniz. Wellington, veri maskeleme, hizmet kalitesi (QoS) ve rol tabanlı erişim kontrolü ile ileri gidebilirsiniz.
Bununla birlikte, düşünceler etik zorluklardan gamı birleştirme hataları, güvenlik riski, ölçeklenebilirlik, açıklanabilirlik ve hesap verebilirlik ve gizlilik önyargılarına, oldukça basit bir şekilde, istenmeyen sonuçların potansiyeline yöneliktir. Ajan AI’nın şeffaflığa ihtiyacı var, ancak nasıl olduğunu bilmek kolay değil.
Tüm bunlar, günlerin erken günlerde bulut benimsemesine tanıdık geliyor-ancak yapay zeka ile hype’dan hayal kırıklığına döngü hızlandı. Ancak, öğrenilebilecek erken benimseyenler vardır. Wellington, “Aslında yolu gösteren daha sessiz ikinci dalga olabilir” diye ekliyor.
AI platformu Glean’deki bilgi güvenlik görevlisi (CISO) Sunil Agrawal, savaşa değer olduğunu söylüyor. AI ajanları, işin nasıl yapıldığını yeniden şekillendirebilir, bu da yüzeye çıkmaya ve gerekli verileri anlamaya yardımcı olabilir. Ancak bu sistemleri güvenli ve sorumlu bir şekilde ölçeklendirmek kritiktir.
Temsilciler, özellikle yüksek düzenlenmiş ortamlarda, ilk günden itibaren kullanıcı rollerine ve veri yönetişimi politikalarına saygı duymalı ve neler olup bittiğinin gözlemlenebilirliği çok önemlidir. Bu, hangi verilere eriştiklerini, nasıl akıl yürüttiklerini ve hangi modellere güvendiklerini kapsar.
Agrawal, “AI ajanları sadece üzerine inşa ettikleri veriler kadar güvenilir” diyor. “Onları doğru, birleşik iç bilgiye yerleştirin. Ve hızlı enjeksiyon, jailbreaking ve model manipülasyonu gibi tehditler özel savunmalar gerektirir. Güçlü bir yönetişim çerçevesi, ajanların güvenli, etik ve örgütsel politikayla uyumlu çalışmasını sağlamaya yardımcı olur.”