NCSC, chatbot siber riskleri konusunda uyarı yayınladı


İngiliz yetkililer, yapay zeka destekli chatbot’ları işlerine entegre etmeleri konusunda kuruluşları uyarıyor ve araştırmaların giderek zararlı görevleri yerine getirmek üzere kandırılabileceğini gösterdiğini söylüyor.

İngiltere Ulusal Siber Güvenlik Merkezi (NCSC), Çarşamba günü yayınlanacak bir çift blog yazısında, uzmanların, büyük dil modelleri olarak adlandırılan, insana benzeyen etkileşimler oluşturabilen algoritmalara bağlı potansiyel güvenlik sorunlarıyla henüz başa çıkamadığını söyledi. veya LLM’ler.

Yapay zeka destekli araçlar, bazılarının sadece internet aramalarının değil, aynı zamanda müşteri hizmetleri çalışmalarının ve satış çağrılarının da yerini alacağını öngördüğü sohbet robotları olarak erken dönemde kullanılmaya başlandı.

NCSC, özellikle bu tür modellerin kuruluşun iş süreçlerindeki diğer unsurlara eklenmesi halinde bunun risk taşıyabileceğini söyledi. Akademisyenler ve araştırmacılar, chatbotları hileli komutlarla besleyerek veya kendi yerleşik korkuluklarını aşmaları için kandırarak onları altüst etmenin yollarını defalarca buldular.

RiverSafe’in baş teknoloji sorumlusu siber uzmanı Oseloka Obiora şunları söyledi: “İşletmeler gerekli temel durum tespiti kontrollerini uygulama konusunda başarısız olursa, yapay zekayı benimseme yarışının feci sonuçları olacaktır. Chatbot’ların hileli komutlar için manipülasyona ve ele geçirilmeye açık olduğu zaten kanıtlandı; bu da dolandırıcılık, yasa dışı işlemler ve veri ihlallerinde keskin bir artışa yol açabilir.

“Üst düzey yöneticiler, en son yapay zeka trendlerine dalmak yerine tekrar düşünmeli, faydaları ve riskleri değerlendirmeli ve kuruluşun zarar görmemesini sağlamak için gerekli siber korumayı uygulamalıdır” diye ekledi.

Örneğin, bir banka tarafından konuşlandırılan yapay zeka destekli bir sohbet robotu, bir bilgisayar korsanının sorgusunu doğru şekilde yapılandırması durumunda yetkisiz bir işlem yapması için kandırılabilir.

NCSC, blog gönderilerinden birinde deneysel yazılım sürümlerine atıfta bulunarak, “LLM’leri kullanan hizmet geliştiren kuruluşların, tıpkı beta sürümdeki bir ürün veya kod kütüphanesini kullanıyorlarsa dikkatli olmaları gerekir” dedi.

“Ürünün müşteri adına işlem yapılmasına izin vermeyebilirler ve umarız ona tamamen güvenmezler. Benzer uyarı yüksek lisans dereceleri için de geçerli olmalıdır.”

Dünyanın dört bir yanındaki yetkililer, işletmelerin satış ve müşteri hizmetleri de dahil olmak üzere geniş bir hizmet yelpazesine dahil ettiği OpenAI ChatGPT gibi LLM’lerin yükselişiyle boğuşuyor. ABD ve Kanada’daki yetkililerin bilgisayar korsanlarının bu teknolojiyi benimsediğini gördüklerini söylemeleriyle birlikte, yapay zekanın güvenlik üzerindeki etkileri de hala odak noktası olmaya devam ediyor.



Source link