CISO’lar siber stratejileri AI yaşı için nasıl uyarlayabilir?


Yapay zeka yaşı ve özellikle üretken yapay zeka, dikkate değer bir hızla geldi. İşletmeler AI’yı işlevlere yerleştiriyor: Müşteri Hizmetleri Botları ve Belge Özetleme Motorları’ndan AI odaklı tehdit algılama ve karar destek araçlarına.

Ancak evlat edinme hızlandıkça, CISO’lar artık Fikri Mülkiyet, Veri Altyapısı, Kritik İş Mantığı ve Potansiyel Saldırı Yüzeyini bir kompleks, gelişen varlıkta birleştiren AI modeli şeklinde yeni bir dijital varlık sınıfı ile karşı karşıya.

Geleneksel güvenlik önlemleri artık bu yeni gerçeklikle başa çıkmak için yeterli olmayabilir. Birincilik dünyasında işletme operasyonlarını, itibarını ve veri bütünlüğünü korumak için güvenlik liderlerinin siber güvenlik stratejilerini yeniden düşünmeleri gerekebilir.

‘Yaşayan Dijital Varlıklar’

Her şeyden önce, AI sistemleri ve genai modelleri canlı dijital varlıklar olarak ele alınmalıdır. Statik verilerden veya sabit altyapıdan farklı olarak, bu modeller yeniden düzenleme, ince ayar ve yeni istemlere ve veri girişlerine maruz kalma yoluyla sürekli olarak gelişir.

Bu, bir modelin davranışının, karar verme mantığının ve potansiyel güvenlik açıklarının zaman içinde, genellikle opak yollarla değişebileceği anlamına gelir.

Cisos bu nedenle sürekli yönetişim, inceleme ve adaptasyon zihniyeti uygulamalıdır. AI güvenliği sadece veri güvenliği veya uygulama güvenliğinin bir alt kümesi değildir; Amaçlı yönetişim, izleme ve olay müdahale yetenekleri gerektiren kendi alanıdır.

Kritik bir adım, kuruluşların verileri AI yaşam döngüsü içinde nasıl sınıflandırdığını yeniden tanımlamaktır.

Geleneksel olarak, veri güvenliği politikaları, yapılandırılmış verileri dinlenme, transit veya kullanımda korumaya odaklanmıştır. Bununla birlikte, yapay zeka ile, kullanıcı istemleri veya alınan bilgi ve üretilen içerik veya öneriler gibi çıktılar gibi model girişleri de kritik varlıklar olarak ele alınmalıdır.

Bu girişler ve çıkışlar sadece veri sızıntısı riskini taşımakla kalmaz, aynı zamanda zehir modelleri, çıkışları eğrilecek veya hassas iç mantığı açığa çıkaracak şekilde manipüle edilebilir. Bu nedenle, eğitim verileri, çıkarım boru hatları ve üretilen sonuçlar arasında sınıflandırma etiketleri, erişim kontrolleri ve denetim yollarının uygulanması bu riskleri yönetmek için gereklidir.

Tedarik Zinciri Risk Yönetimi

Güvenlik çevresi, işletmeler üçüncü taraf AI araçlarına veya API’lere güvendiğinde de genişler. Tedarik zinciri risk yönetimi, AI modelleri harici olarak geliştirildiğinde veya açık platformlardan kaynaklandığında taze bir lense ihtiyaç duyar.

Tedarikçi değerlendirmeleri, şifreleme standartları ve ihlal geçmişinin olağan kontrol listesinin ötesine geçmelidir. Bunun yerine, eğitim veri kaynakları, model güncelleme mekanizmaları ve güvenlik testi sonuçlarında görünürlük gerektirmelidirler. CISOS, önyargı azaltma, çekişmeli sağlamlık ve provenans izleme gibi AI geliştirme uygulamalarına bağlılığı göstermeye satıcıları zorlamalıdır.

Bu özen olmadan, kuruluşlar öngörülemez davranabilecek opak kara kutuları ithal etme riskiyle karşı karşıya; Ya da daha da kötüsü, kötü bir şekilde, düşmanca baskı altında.

Dahili olarak, kabul edilebilir AI kullanımını tanımlayan bir yönetişim çerçevesi oluşturmak çok önemlidir. İşletmeler, hangi amaçlar için ve hangi kısıtlamalar için yapay zekayı kimin kullanabileceğini belirlemelidir.

Bu politikalar, Access Gating ve API kullanım kısıtlamalarından günlüğe kaydetme ve izlemeye kadar teknik kontrollerle desteklenmelidir. Tedarik ve geliştirme ekipleri de açıklanabilirlik ve şeffaflığı temel gereksinimler olarak benimsemelidir. Daha genel olarak, bir AI sisteminin iyi performans göstermesi yeterli değildir; Paydaşlar, özellikle bu sonuçlar yüksek riskli kararları etkilediğinde, sonuçlarına nasıl ve neden ulaştığını anlamalıdır.

Sıfır Tutmaya Dönüş

Altyapı açısından, sıfır tröst ilkelerini AI sistemlerini destekleyen mimariye yerleştiren cisos, geleceğe dayanıklı operasyonlara yardımcı olacaktır.

Bu, geliştirme ortamlarını segmentlere ayırma, model ağırlıklarına ve çıkarım uç noktalarına en az ayrı erişimin uygulanması ve AI boru hattı boyunca hem insan hem de makine kimliklerini sürekli olarak doğrulamak anlamına gelir.

Birçok AI iş yükü, özellikle hassas dahili veriler konusunda eğitilmiş olanlar, casusluk, içeriden tehditler ve pessfiltrasyon için cazip hedeflerdir. Kimliğe duyulan erişim kontrolü ve gerçek zamanlı izleme, yalnızca yetkili ve kimlik doğrulamalı aktörlerin kritik yapay zeka kaynaklarıyla etkileşime girebilmesini sağlamaya yardımcı olabilir.

AI-güvenli eğitim

Ortaya çıkan en önemli güvenlik açıklarından biri, Genai araçlarıyla son kullanıcı etkileşiminde yatmaktadır. Bu araçlar verimlilik kazanımları ve inovasyon vaat ederken, veri kaybı, halüsinasyonlu çıktılar ve sosyal mühendisliğin temeli için de kanal haline gelebilirler. Çalışanlar bilmeden hassas bilgileri kamu AI sohbet botlarına yapıştırabilir veya sınırlamalarını anlamadan kusurlu AI tarafından oluşturulan tavsiyelerde bulunabilir.

CISOS, genel siber güvenlik bilincinin ötesine geçen kapsamlı eğitim programları ile buna karşı yardımcı olmalıdır. Personel, hızlı enjeksiyon saldırıları, model yanlılığı ve sentetik kimlik yaratma gibi AI’ye özgü tehditler konusunda eğitilmelidir. Ayrıca AI çıkışlarını doğrulamaları ve makine tarafından üretilen içeriğe kör güvenmekten kaçınmaları da öğretilmelidir.

Olay Yanıtı

Kuruluşlar ayrıca AI tehdit senaryolarını olay müdahale oyun kitaplarına entegre ederek kendi olay yanıtlarını da genişletebilir.

Hızlı sızıntı veya karar vermeyi yanlış bilgilendiren bir AI halüsinasyonunun neden olduğu bir veri ihlaline yanıt vermek, geleneksel bir kötü amaçlı yazılım olayından farklı protokoller gerektirir, bu nedenle masa üstü egzersizleri model manipülasyon simülasyonları, olumsuz girdi saldırıları ve AI modelleri veya eğitim veri kümelerinin hırsızlığı içerecek şekilde güncellenmelidir.

Hazırlık anahtardır: AI sistemleri iş operasyonlarının merkezinde yer alıyorsa, bu sistemlere yönelik tehditler ağları veya uç noktaları hedefleyenler olarak eşit aciliyetle ele alınmalıdır.

Kurumsal onaylı platformlar

Paralel olarak, kuruluşlar hassas bağlamlarda kamu genai araçlarının kullanımını sınırlamak için teknik önlemler uygulamalıdır. İster web filtrelemesi, tarayıcı kısıtlamaları veya politika uygulama yoluyla, işletmeler çalışanları uyumluluk, güvenlik ve veri ikametgahı için denetlenen kurumsal onaylı AI platformlarına yönlendirmelidir. Gölge AI veya genai araçlarının yetkisiz kullanımı, büyüyen bir risk oluşturur ve Gölge BT ile aynı titizlikle ele alınmalıdır.

İçeriden tehdit

Son olarak, içeriden gelen tehdit yönetimi gelişmelidir. AI geliştirme ekipleri genellikle hassas veri kümelerine ve tescilli model mimarilerine yüksek erişime sahiptir.

Bu ayrıcalıklar, istismar edilirse, önemli fikri mülkiyet hırsızlığına veya yanlışlıkla maruz kalmaya yol açabilir. Davranışsal analitik, güçlü aktivite izleme ve görevlerin zorla ayrılması bu riski azaltmak için hayati önem taşır. Yapay zeka işine daha derin bir şekilde gömüldükçe, gelişimini ve konuşlandırılmasını çevreleyen insan riskleri göz ardı edilemez.

Yapay zeka döneminde, CISO’nun rolü derin bir değişim geçiriyor. Sistemleri ve verileri korumak elbette rolün temelini oluştururken, artık güvenlik liderleri kuruluşlarının AI’nın kendisinin güvenilir, esnek ve örgütsel değerlerle uyumlu olmasını sağlamasına yardımcı olmalıdır.

Bu, hem zihniyet hem de stratejide bir değişim gerektirir, AI’yi sadece bir araç olarak değil, güvence altına alınması, yönetilmesi ve saygı görmesi gereken stratejik bir varlık olarak tanıyır. Ancak o zaman işletmeler AI’nın tüm potansiyelini güvenli, güvenle ve sorumlu bir şekilde kullanabilir.

Martin Riley, Bridewell Consulting’in baş teknoloji görevlisidir.



Source link