İnsanların% 62’si AI ajanlarının aldatılmasının insanlardan daha kolay olduğuna inanıyor


Salt Security tarafından yeni bir rapor (Ajan AI’nın geleceğini güvence altına almak: Sağlam API güvenliği yoluyla tüketici güvenini oluşturmak) Kritik bir uyarıyı vurgular: Uygun uygulama programlama arayüzü (API) keşfi, yönetişim ve güvenlik olmadan, daha akıllı müşteri katılımını sağlamak için tasarlanan teknoloji siber saldırılara veya veri sızıntısının kapısını açabilir. Araştırma ayrıca, dış iletişim için ajan yapay zeka kullanan işletmeler ile güvenlik kaygıları nedeniyle kişisel bilgileri paylaşmaya dikkat eden tüketiciler arasında artan bir güven boşluğu olduğunu ortaya koymaktadır.

APIS Power AI ajanları, istekte bulunabilme, veri alma ve farklı platformlar arasında etkileşim kurma yeteneği ile, ajan yapay zeka etkileşimlerine olan güveni artırmaya yönelik ortak iş parçacığı API güvenliğidir. Rapor, güvenlik güçlendirildikten sonra, Tüketici Güveninin takip edeceğini ve Ajan AI’sının tüm iş potansiyeline ulaşmasına izin vereceğini öne sürüyor.

Census çapında, 1000 ABD merkezli tüketicinin ve 250’den fazla çalışanı olan 250’den fazla kuruluşun Ajan AI kullanan 250’den fazla kuruluşun tuz güvenliği adına anketi gerçekleştirdi. Benzersiz rapor, aracı AI denkleminin her iki tarafına da girdi – zaten onu kullanan kuruluşlar ve karşılaşan tüketiciler.

Rapora göre, önemli sayıda kuruluş zaten bu teknolojiyi müşteriye dönük roller için dağıtmayı veya dağıtmayı planlıyor ve yarısından fazlası (%53) bunu gösteriyor. AI ajanlarının benimsenmesi yaygındır, kuruluşların yaklaşık yarısı 6 ila 20 tip arasında ve 21 ila 50 arasında kayda değer bir% 19 konuşlandırılır. Sistemler içindeki aktif ajan sayısı da yüksektir, çünkü kuruluşların% 37’si 1 ila 100 arasında, 501 ila 1000 ajanı arasında önemli bir% 18 konakçı olduğunu bildirmektedir.

Ancak, bu yaygın benimsenmesine rağmen, rapor güvenlik ve yönetişimdeki bir boşluk ortaya koymaktadır. Kuruluşların sadece% 32’si günlük API risk değerlendirmeleri yapmaktadır ve sadece% 37’sinde AI girişimlerini denetlemek için özel bir API güvenlik çözümüne veya bir veri gizlilik ekibine sahiptir. Aslında, kuruluşların küçük ama endişe verici bir% 7’si API riski aylık veya hatta daha az sıklıkta değerlendirmektedir.

Öte yandan, AI chatbots ile tüketici etkileşimleri geçtiğimiz yıl önemli ölçüde arttı ve insanların% 64’ü onlarla daha sık etkileşime girdi. Bu kullanıcıların büyük bir çoğunluğu,% 80’i kesin olarak, bu konuşmalar sırasında kişisel bilgileri paylaşmıştır. Bu, genellikle bir baskı duygusundan kaynaklanmaktadır, çünkü tüketicilerin% 44’ü sadece bir görev yapmak için bilgi paylaşmaya mecbur olduklarını itiraf ediyorlar. Bu sık etkileşimlere rağmen, açık bir güven eksikliği vardır, tüketicilerin sadece% 22’si AI ajanlarıyla veri paylaşmakta rahat hissederler. Bu, telefon etkileşimlerine güvenen% 37 ve verileri bizzat paylaşmakta rahat hisseden% 54’ü keskin bir tezat oluşturuyor. Buna ek olarak,%62 olan insanların çoğunluğu, AI ajanlarının aldatılmasının insanlardan daha kolay olduğuna inanmaktadır.

Salt Security CMO CMO Michael Callahan, “Ajan yapay zeka işletmelerinin çalışma şeklini değiştiriyor, ancak tüketiciler açıkça güven eksikliğine işaret ediyor” dedi. “Birçok kuruluşun göz ardı ettiği şey, AI’nın güvenliğinin ve başarısının ona güç veren API’lere bağlı olması ve etkili bir şekilde keşfedilmesi, yönetilmesi ve güvence altına alınması gerektiğidir. Aksi takdirde, güven boşluğu genişleyecek ve riskler artacaktır.”

API’lar, AI ajanları için dijital temeli oluşturur, verileri almalarını, eylemleri tetiklemelerini ve platformlar arasında etkileşim kurmalarını sağlar. Ancak, her bağlantı potansiyel bir saldırı yüzeyi ekler. AI aracıları daha fazla görevi otomatikleştirdikçe ve hassas bilgileri işlerken, API kimlik doğrulamasındaki zayıflıklar, giriş doğrulaması ve erişim kontrolü yüksek riskli güvenlik açıkları haline gelir.

Rapor, AI araçlarını kullanarak sürekli API izleme ve anomali algılama, transit ve dinlenme ve düzenli güvenlik testi ve geliştirici eğitimi için veriler için şifreleme gibi en iyi uygulamaların özetlenmesi.

Michael Callahan, “Yapay zeka ajanları daha özerk hale geldikçe ve iş operasyonlarına gömüldükçe, API’leri kendilerine güç sağlayan acil bir öncelik olmalı, çünkü bu, kontrolden çıkana kadar bileşik tutmaya devam edecek bir sorun” dedi. “Riski azaltmak, güveni artırmak, inovasyonu arttırmak ve genel siber esnekliği artırmak için API altyapısının güvence altına alınması şimdi gerçekleşmelidir.

İnsanların% 62’si AI ajanlarının aldatılmasının, insanların BT güvenlik gurusu üzerinde ilk ortaya çıkmasından daha kolay olduğuna inanıyor.



Source link