Sorumlu yapay zeka geliştirmek basit bir teklif değildir. Bir tarafta kuruluşlar teknolojik ilerlemenin ön saflarında kalmaya çalışıyor. Öte yandan, etik standartlara ve düzenleyici gerekliliklere sıkı bir uyum sağlamaları gerekir.
Hızlı yenilik ile artan düzenleyici gereklilikler arasındaki bu ince çizgiyi dengelemeye çalışan kuruluşların, giderek kalabalıklaşan bir pazarda uyumlu ve rekabetçi kalmalarını sağlayacak şekilde standartlaştırılmış bir gelişim yaklaşımı kullanması gerekecektir.
Yapay zeka inovasyonu risk altında
Pek çok işletme, (yaklaşan) Siber Dayanıklılık Yasası ve Veri Yasası da dahil olmak üzere giderek daha karmaşık hale gelen düzenleme düğümünü çözmekte zaten zorlanıyor.
Son AB Yapay Zeka Yasası, yapay zeka güvenliğine yönelik önemli bir adım atmış olsa da, yasa aynı zamanda ek bürokrasi de yarattı. Bu, Avrupa Parlamentosu’ndan, idari gereklilikleri basitleştirerek ve gri yasal alanları açıklığa kavuşturarak Kanuna uyumu kolaylaştırma yönünde çağrılara yol açtı. Ayrıca, küçük işletmelerin mevzuatı kavramasına yardımcı olmak için yapay zeka araştırmalarının ve desteğinin daha iyi finanse edilmesi yönünde talepler var. Yasada bu düzenlemeler yapılmadığı takdirde, AB’nin kendisini bu alanda lider konumuna getiremeyeceği ve ABD ile Çin’e kaptıramayacağı yönünde ciddi endişeler mevcut.
Birleşik Krallık hükümeti daha çok inovasyon yanlısı bir duruş sergiledi. AI teknik incelemesi, yeni yasalar getirmek yerine, mevcut düzenleyicilerin kendi yetki alanlarında uygulayabilecekleri güvenlik, adalet, şeffaflık, hesap verebilirlik ve kullanıcı haklarına odaklanan beş üst düzey ilke önermektedir. Bu daha geniş prensipler AB Yasasından daha az kuralcıdır. Aslında, BT güvenlik testi prosedürlerinin zaten güvenilen bir bileşeni olan kırmızı ekip oluşturma hedefleriyle iyi uyum sağlıyorlar.
Yapay zeka kırmızı ekip çalışması: yeniliği engellemeden riski tanımlamak ve azaltmak
Bir teknolojiyi düzenlemek için onu anlamalısınız. Aşırı katı düzenlemenin zorluğunun bir kısmı, yapay zekanın risklerini hem emniyet hem de güvenlik açısından nasıl sınırlandıracağımızı zaten bildiğimizi varsaymamızdır; ancak durum böyle değildir.
Veri sızdıran yapay zeka modelleri gibi geleneksel güvenlik perspektifinden ve istenmeyen ve zararlı görüntüler veya kod üreten modeller gibi güvenlik perspektiflerinden modellerde hâlâ düzenli olarak yeni zayıflıklar keşfediyoruz. Bu riskler hâlâ küresel araştırmacı topluluğu tarafından keşfediliyor ve tanımlanıyor; bu nedenle, bu zorlukları daha iyi anlayıp tanımlayana kadar en iyi eylem planı, yapay zeka modellerini ve dağıtımlarını stres testine tabi tutmaktır.
Kırmızı ekip çalışmaları, yeni riskleri bulmanın en iyi yollarından biridir; bu da onları, üretken yapay zeka gibi yeni ortaya çıkan teknolojilerdeki güvenlik ve güvenlik endişelerini bulmak için ideal kılar. Bu, penetrasyon testi, zamana bağlı saldırı amaçlı bilgisayar korsanlığı yarışmaları ve hata ödül programlarının bir kombinasyonu kullanılarak yapılabilir. Sonuç, iyileştirme önerileri de dahil olmak üzere kapsamlı bir sorun listesi ve uygulanabilir önerilerdir.
Güvenlik, güvenlik ve hesap verebilirliğe bu kadar net bir şekilde odaklanıldığında, kırmızı ekip uygulamalarının dünya çapındaki düzenleyiciler tarafından olumlu değerlendirilmesinin yanı sıra Birleşik Krallık hükümetinin sorumlu yapay zeka gelişimi vizyonuyla uyumlu olması muhtemeldir.
Kırmızı ekip oluşturmanın bir yapay zeka testi yöntemi olarak kurulmasının bir diğer avantajı da bunun hem emniyet hem de güvenlik için kullanılabilmesidir. Ancak uygulama ve amaçlar farklıdır.
Güvenlik konularında odak noktası, yapay zeka sistemlerinin zararlı bilgiler üretmesini önlemektir; örneğin, nasıl bomba yapılacağına veya intihar edileceğine ilişkin içerik oluşturulmasının engellenmesi ve şiddet, cinsel aktivite ve kendine zarar verme gibi potansiyel olarak üzücü veya yozlaştırıcı görüntülerin sergilenmesinin engellenmesi. Amacı, potansiyel istenmeyen sonuçları veya önyargıları ortaya çıkararak yapay zekanın sorumlu kullanımını sağlamak ve geliştiricilere yeni ürünler geliştirirken etik standartları proaktif bir şekilde ele alma konusunda rehberlik etmektir.
Yapay zeka güvenliğine yönelik kırmızı ekip çalışması farklı bir bakış açısı getiriyor. Amacı, kötü niyetli aktörlerin bir uygulamanın veya sistemin gizliliğini, bütünlüğünü veya kullanılabilirliğini tehlikeye atacak şekilde yapay zekayı manipüle etmesini engellemek için güvenlik açıklarını ortaya çıkarmaktır. Kırmızı ekip oluşturmanın bu yönü, kusurları hızlı bir şekilde ortaya çıkararak, güvenlik risklerinin kötüye kullanılmadan önce tanımlanmasına, azaltılmasına ve iyileştirilmesine yardımcı olur.
Yeteneklerinin gerçek dünyadaki bir göstergesi için Bard’ın Extensions AI özelliğinin lansmanı değerli bir örnek teşkil ediyor. Bu yeni işlevsellik, Bard’ın Google Drive, Google Dokümanlar ve Gmail’e erişmesini sağladı, ancak yayına girdikten sonraki 24 saat içinde etik korsanlar, bunun dolaylı istemli enjeksiyona açık olduğunu gösteren sorunlar tespit etti.
E-postalar, sürücü belgeleri ve konumlar da dahil olmak üzere kişisel olarak tanımlanabilir bilgileri (PII) ciddi risk altına sokar. İşaretlenmezse, bu güvenlik açığı kişisel e-postaların sızması için kullanılabilir. Bunun yerine etik korsanlar, hata ödül programı aracılığıyla derhal Google’a bildirimde bulundular; bu da 20.000 ABD doları ödülle sonuçlandı ve olası bir kriz önlendi.
Yetenek çeşitliliği fark yaratıyor
Kırmızı ekip oluşturmanın bu kalitesi, etkili değerlendirmelerin temeli olarak özenle seçilmiş ve çeşitli beceri gruplarına dayanır. Tanınmış bir platform aracılığıyla etik bilgisayar korsanlığı topluluğuyla ortaklık kurmak, yeteneklerin farklı geçmişlerden ve deneyimlerden elde edilmesini ve yapay zekanın titizlikle test edilmesi için gerekli ilgili becerilere sahip olmasını sağlamanın güvenilir bir yoludur.
Bilgisayar korsanları merak odaklı olmaları ve kalıpların dışında düşünmeleriyle tanınırlar. Kuruluşlara sürekli değişen güvenlik ve emniyet sorunlarına ilişkin dış ve yeni bakış açıları sunarlar.
Kırmızı ekip üyelerine işbirliği yapma fırsatı verildiğinde, birleşik çıktılarının daha da etkili hale geldiğini ve geleneksel güvenlik testlerinden elde edilen sonuçların düzenli olarak aşıldığını belirtmekte fayda var. Bu nedenle ekipler arasında işbirliğini kolaylaştırmak önemli bir husustur. Çeşitli beceri ve bilgilere sahip bireylerin bir karışımını elde etmek, yapay zeka dağıtımları için en iyi sonuçları sağlayacaktır.
En iyi hata ödül programlarını tasarlamak
Teşvik modelini etik bir bilgisayar korsanlığı programı için uyarlamak da hayati önem taşıyor. En etkili model, belirli güvenlik sonuçlarına ulaşmaya yönelik ödüllerle birlikte, bilgisayar korsanlarını bir kuruluş için en etkili olana göre teşvik etmeyi içerir.
Yerleşik hata ödülü yaklaşımını temel alan bu yeni kırmızı ekip dalgası, işletmelerin yeni dağıtımları başlatmadan veya mevcut ürünleri incelemeden önce ele alması gereken, yapay zekanın ortaya çıkardığı yeni güvenlik ve güvenlik sorunlarını ele alıyor.
AI ve Yüksek Lisans anında bilgisayar korsanlığı konusunda uzman etik bilgisayar korsanlarının kolektif becerilerinden yararlanan hedefli saldırı testleri, sistemlerin ve benzer süreçlerin güçlendirilmesine yardımcı olacaktır. Otomatik araçlar ve dahili ekipler tarafından gözden kaçırılan potansiyel güvenlik açıklarına ve istenmeyen sonuçlara karşı koruma sağlayacaktır. Daha da önemlisi, “sorumlu yapay zeka” ilkelerini destekleyen daha dayanıklı ve güvenli yapay zeka uygulamalarının oluşturulmasını sağlar.