Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
Başarılı Yapay Zeka Uygulaması Güvenli Bir Temel ve Düzenlemelere Dikkat Etmeyi Gerektirir
Akşaya Asokan (asokan_akshaya) •
20 Eylül 2023
Bir Google yöneticisi Salı günü yaptığı açıklamada, özel sektörün üretken yapay zekayı ürünlere dahil etme çılgınlığının, şirketlerin temel güvenlik uygulamalarını gözden kaçırmasına yol açtığı konusunda uyardı.
Ayrıca bakınız: Web Semineri | SASE Dağıtımınız Neden ZTNA 2.0 ile Başlamalı?
Google’da unvanını alan John Stone, “Herkes hızlı enjeksiyon veya destekleme modellerinden bahsediyor çünkü çok havalı ve sıcak. Ancak konu güvenlik olduğunda çoğu insan hâlâ temel bilgilerle mücadele ediyor ve bu temel bilgiler yanlış olmaya devam ediyor” dedi. Bulut, Bilgi Güvenliği Medya Grubu’nun Londra Siber Güvenlik Zirvesi’nde konuşurken “kaos koordinatörüdür”.
Stone, başarılı yapay zeka uygulamasının güvenli bir temel gerektirdiğini, bunun da firmaların tedarik zincirindeki, kaynak kodundaki ve daha büyük BT altyapısındaki güvenlik açıklarını gidermeye odaklanması gerektiği anlamına geldiğini söyledi.
“Düşünülmesi gereken her zaman yeni şeyler vardır. Ancak eski güvenlik riskleri yine de meydana gelecektir. Hala altyapınız var. Hala yazılım tedarik zinciriniz ve düşünmeniz gereken kaynak kodunuz var.”
Santander İngiltere’deki teknoloji platformları başkanı Andy Chakraborty, izleyicilere, bankacılık ve finans gibi sıkı düzenlemeye tabi sektörlerin, halka açık veri kümeleri üzerinde eğitilmiş yapay zeka çözümlerini dağıtırken özellikle dikkatli olması gerektiğini söyledi.
Chakraborty, “Sektöre bağlı olarak, özellikle hassas finansal verileri ve kişisel bilgileri işleyen finansal hizmetlerde yapay zeka uygulamalarına ilişkin büyük düzenleyici kaygılar olabilir” dedi.
Özellikle önerilen Avrupa Birliği Yapay Zeka Yasasının kabul edilmesiyle birlikte artan düzenleyici odaklanmanın ardından, daha fazla kuruluşun özel veriler üzerinde eğitilen ChatGPT’ye benzer uygulamalara yöneleceğini söyledi.
“Bu daha güvenli, ayrıca onu kendi özel verilerinizle eğitebilir ve kendi ekosisteminizde tutabilirsiniz. Yani bu özel modeller gelecek olacak.”
Airbus kurumsal güvenlik mimarisi başkanı Adam Wedgbury, havacılık gibi “güvenlik ve risk açısından kritik” işletmeler için yapay zeka kullanımının şu anda “karar verme” ile değil “karar destekleme” ile sınırlı olduğunu söyledi.
“Şu anda mühendislikle ilgili herhangi bir konuda şirket içinde yapay zekayı kullanmak çok zor. Yine ikilemimiz şu: Yapay zeka için güvenlik mi, yoksa güvenlik için yapay zeka mı?”