Gelişen finansal teknoloji dünyasında, iki olağanüstü lider, Broadridge Hindistan’da çığır açan dönüşümlere öncülük ediyor.
Tekno-işlevsel uzmanlığı ve vizyoner liderliği Broadridge’in büyümesini ve yenilikçiliğini ilerletmede etkili olan iki dinamik kişilik olan Santhanam Govindaraj (Santh) ve Prasad Vemuri ile tanışın.
Broadridge Hindistan’ın Bilişim Kurulu Başkanı (CIO) olarak Santh, Sermaye Piyasaları ve Servet Yönetimi de dahil olmak üzere çeşitli alanlarda kurumsal çözümler sunma konusunda 24 yıllık etkileyici bir geçmişe sahiptir.
Operasyonel mükemmelliği, yeniliği ve evrimi teşvik etmek için Hindistan’daki Küresel Teknoloji ve Operasyonlar (GTO) organizasyonunu uyumlu hale getirmeye yorulmadan odaklanan Ürün, Teknoloji, Müşteri Katılımı ve Hizmet Sunumu ekiplerine liderlik ediyor.
Broadridge Hindistan’ın Baş Teknoloji Sorumlusu ve Yatırımcı İletişimi işinin eş başkanı Prasad Vemuri, Santh’ın yenilikçi güdüsünü tamamlıyor.
Finansal hizmetler alanında 25 yıllık etkileyici bir görev süresine sahip olan Prasad, yatırım bankacılığı ve dijital iletişim alanlarında büyük ölçekli kurumsal çözümler sunma konusunda kapsamlı bir geçmişe sahip deneyimli bir teknoloji lideridir.
Santh ve Prasad, ortak merkezli bir kültür oluşturma, büyümeyi destekleme ve çeşitlilik, eşitlik ve kapsayıcılık (DEI) girişimlerini destekleme tutkusunu paylaşıyor.
Yolculuklarını tartışırken, finansal teknolojinin geleceğine, üretken yapay zekaya ve daha fazlasına ilişkin içgörülerini keşfederken The Cyber Express’e katılın.
- Üretken yapay zeka teknolojileri, birçok fayda sağlarken, istemeden de olsa siber tehditler için yeni vektörler ortaya çıkarabilir. Bir siber güvenlik lideri olarak sizin bakış açınıza göre, bu teknolojilerin siber güvenlik için oluşturduğu en önemli riskler nelerdir ve kuruluşların bu riskleri nasıl tahmin edip azaltabileceğini öneriyorsunuz?
Prasad Vemuri: Bir siber güvenlik lideri olarak, üretken yapay zeka teknolojilerinin gerçekten de hem fırsatlar hem de riskler sunduğunun farkındayız. Ortaya koydukları en önemli riskler arasında son derece gelişmiş ve gerçekçi kimlik avı saldırıları, sosyal mühendislik için kullanılan derin sahte içerikler ve özel olarak hazırlanmış kötü amaçlı yazılımların oluşturulması yer alır. Bu riskleri öngörmek ve azaltmak için kuruluşların çok katmanlı bir yaklaşım benimsemesi gerekir.
Bu, yapay zeka kaynaklı tehditleri tanımlayabilen gelişmiş tehdit algılama sistemlerine yatırım yapmayı, güçlü kullanıcı kimlik doğrulama yöntemleri uygulamayı, çalışanları yeni ortaya çıkan tehditler hakkında eğitmek için düzenli güvenlik farkındalığı eğitimi vermeyi ve olası güvenlik açıklarını anlamak ve uygun savunma mekanizmaları geliştirmek için yapay zeka uzmanlarıyla işbirliklerini teşvik etmeyi içerir.
Ek olarak, yapay zeka geliştirme sırasında sorumlu yapay zeka kullanımını teşvik etmek ve etik yönergelere bağlı kalmak, teknolojinin faydalarının risklerinden ağır basmasını sağlamak için çok önemli olacaktır.
- Siber güvenlik jailbreak’leri ve geçici çözümleri, kuruluşları daha önce dikkate almadıkları tehditlere maruz bırakabilir. Şirketler, üretici yapay zeka teknolojilerinin getirdiği beklenmedik boşluklar sorununa nasıl yaklaşmalı ve bu teknolojiler, bu tür güvenlik açıklarından arınmış olduklarından emin olmak için devreye alınmadan önce nasıl test edilmelidir?
Santhanam Govindaraj: Üretken yapay zeka teknolojilerinin getirdiği beklenmedik boşluklarla ilişkili riskleri azaltmak için şirketlerin siber güvenlik ve testlere yönelik kapsamlı bir yaklaşım benimsemesi gerekiyor. İlk olarak, kuruluşlar, potansiyel zayıflıkları belirlemek için geliştirme süreci boyunca titiz güvenlik açığı değerlendirmeleri ve sızma testleri uygulamalıdır.
Bu, AI sistemini çeşitli saldırı senaryolarına tabi tutmayı, gerçek dünya tehditlerini simüle etmeyi ve olası güvenlik açıklarından yararlanmaya çalışmayı içerir. Ayrıca şirketler, sürekli izleme ve güncellemeleri vurgulayarak yapay zeka dağıtımı için net güvenlik protokolleri ve en iyi uygulamalar oluşturmalıdır.
Siber güvenlik uzmanlarıyla işbirliği yapmak ve potansiyel güvenlik açıklarının sorumlu bir şekilde ifşa edilmesini teşvik etmek, teknolojinin sağlamlığını artırmaya yardımcı olabilir ve konuşlandırılmadan önce siber tehditlere karşı mümkün olduğunca dirençli olmasını sağlar.
- Yapay zeka modeli eğitim aşaması sırasında ve sonrasında, bir siber suçlunun kötü amaçlı veriler ekleyebileceği veya sistemi tehlikeye atabileceği potansiyel güvenlik açığı noktaları vardır. Kuruluşlar, bu tür ihlalleri önlemek için yapay zeka modeli eğitim süreçlerini nasıl korumalıdır?
Prasad: Kuruluşlar, yapay zeka modeli eğitim süreçlerini korumak ve siber suçluların olası ihlallerini önlemek için birkaç temel önlem uygulayabilir.
İlk olarak, eğitim için kullanılan verileri yetkisiz erişimden korumak için şifreleme ve erişim kontrolleri dahil olmak üzere güçlü veri güvenliği protokollerinin kullanılması kritik öneme sahiptir. İkinci olarak, yapay zeka modelleri için güvenli bir geliştirme yaşam döngüsünün benimsenmesi, güvenliğin tasarımdan dağıtıma kadar süreç boyunca yerleşik olmasını sağlar.
Düzenli güvenlik denetimleri ve güvenlik açığı değerlendirmeleri, sistemdeki potansiyel zayıflıkların belirlenmesine ve ele alınmasına da yardımcı olabilir. Ek olarak, beklenmedik girdiler veya çıktılar için eğitim sürecini izlemek, kötü niyetli verileri enjekte etme girişimlerini tespit etmeye ve azaltmaya yardımcı olabilir.
Son olarak, çalışanlar ve paydaşlar arasında bir güvenlik farkındalığı kültürünün teşvik edilmesi, ilgili herkesin güvenli bir eğitim ortamı sağlamadaki rolünü anlamasını sağlamaya yardımcı olur.
- Üretken yapay zeka, eğitmek için genellikle kişisel kullanıcı verilerini içerebilecek büyük miktarda veriye ihtiyaç duyar. Şirketler, kişisel veri gizliliğinin korunması ile kapsamlı yapay zeka eğitimi ihtiyacını nasıl dengeleyebilir?
Aziz: Şirketler, çeşitli temel stratejiler benimseyerek kapsamlı yapay zeka eğitimi ihtiyacını kişisel veri gizliliğinin korunmasıyla dengeleyebilir. İlk olarak, kişisel olarak tanımlanabilir bilgileri çıkarmak için veri anonimleştirme tekniklerini uygulayabilir ve eğitim için kullanılan verilerin artık bireylere göre izlenemez olmasını sağlayabilirler.
İkinci olarak, erişimi yalnızca gerekli personelle sınırlayarak katı veri erişim kontrolleri oluşturmalılar. Üçüncüsü, şirketler, modelin ham verileri merkezi olarak paylaşmadan kullanıcı cihazlarında yerel olarak eğitildiği birleşik öğrenme gibi gizliliği koruyan makine öğrenimi yöntemlerini keşfedebilir.
Son olarak, kullanıcılarla veri kullanımı ve bilgilendirilmiş onay alma hakkında şeffaf iletişim, güven oluşturabilir ve gizlilik düzenlemelerine uygunluğu sağlayarak yapay zeka gelişimine sorumlu ve gizliliğe duyarlı bir yaklaşımı teşvik edebilir.
- Üretken yapay zeka kullanımıyla birlikte, fikri mülkiyetin açığa çıkma riski artar. Kuruluşlar, özellikle üçüncü taraf satıcılar veya diğer harici varlıklarla işbirliği yaparken, yapay zeka bağlamında fikri mülkiyetlerini nasıl korumalıdır?
Aziz: Yapay zeka alanındaki fikri mülkiyeti korumak ve işbirlikleriyle ilişkili riskleri azaltmak için kuruluşlar, sağlam koruyucu önlemler uygulamalıdır. İlk olarak, üçüncü taraf sağlayıcılarla, oluşturulan yapay zeka modellerinin ve verilerinin mülkiyetini ve kullanım haklarını şart koşan açık sözleşme anlaşmaları yapmalıdırlar.
Gizlilik anlaşmaları (NDA’lar) gizliliği korumak için gereklidir. Ek olarak, verilere filigran ekleme, kod gizleme ve erişim denetimleri gibi teknolojik koruma önlemlerinin uygulanması, yetkisiz erişim ve kullanımın önlenmesine yardımcı olabilir.
AI geliştirme süreçlerinin düzenli denetimleri ve olası IP ihlallerinin izlenmesi de hayati önem taşır. Son olarak, kuruluş içinde fikri mülkiyet koruması hakkında bir farkındalık ve eğitim kültürünün teşvik edilmesi, tüm paydaşların değerli fikri mülkiyetin korunmasına aktif olarak katkıda bulunmasını sağlar.
- Şirketler, üretici yapay zeka alanında çok sayıda satıcıyla ilişki kurar. Bu satıcıların yüksek siber güvenlik standartlarına bağlı kalmasını nasıl sağlamalıdırlar? Potansiyel AI satıcılarının güvenlik politikalarını değerlendirmek için hangi kriterleri önerirsiniz?
Prasad: Üretken yapay zeka satıcılarının yüksek siber güvenlik standartlarına uymasını sağlamak, hassas verileri korumak ve bir şirketin genel güvenlik duruşunu sürdürmek için kritik öneme sahiptir. Potansiyel AI satıcılarının güvenlik politikalarını değerlendirmek için birkaç temel kriter dikkate alınmalıdır.
İlk olarak, satıcı, şifreleme ve erişim kontrolleri dahil olmak üzere kapsamlı veri koruma önlemlerine sahip olmalıdır.
İkinci olarak, güvenlik açıklarını belirlemek ve ele almak için düzenli güvenlik denetimleri ve değerlendirmelerinden geçmelidirler. Üçüncüsü, satıcı, endüstri lideri güvenlik sertifikaları ve standartlarına uygunluk göstermelidir.
Dördüncüsü, herhangi bir güvenlik ihlalinin derhal üstesinden gelmek için sağlam bir olay müdahalesi ve kurtarma planı yürürlükte olmalıdır.
Son olarak, veri sahipliği, paylaşımı ve kullanımına ilişkin açık sözleşme anlaşmaları yapılmalıdır. Tedarikçi firmaları bu kriterlere göre değerlendiren şirketler, güçlü siber güvenlik uygulamalarına sahip yapay zeka iş ortaklarını güvenle seçebilir.
- Üretken AI modelleri bazen hassas verileri işlemek için kullanılır. Bu modelleri kullanırken hassas verilerin yanlışlıkla açığa çıkmamasını sağlamak için kuruluşlara hangi stratejileri ve protokolleri uygulamalarını önerirsiniz?
Prasad: Kuruluşlar, hassas verileri işlemek için üretken yapay zeka modellerini kullanırken veri gizliliğine, gizliliğine ve güvenliğine öncelik vermelidir. Yanlışlıkla maruz kalma riskini azaltmak için birkaç önemli strateji ve protokol uygulanmalıdır.
İlk olarak, bireylerin tanımlanabilir olmasını önlemek için modelleri eğitmeden önce verilerin anonimleştirilmesini, maskelenmesini ve toplanmasını sağlayın. Depolama ve iletim sırasında verileri korumak için sağlam erişim kontrolleri ve şifreleme mekanizmaları kullanın.
Potansiyel gizlilik ihlallerini tespit etmek için model davranışını düzenli olarak denetleyin ve izleyin. Modelin çıktılarının kapsamlı değerlendirmelerini yapın ve herhangi bir hassas bilgi sızıntısını tespit etmek ve ele almak için bir inceleme süreci oluşturun.
Ek olarak kuruluşlar, güvenli ve sorumlu bir yapay zeka ortamını sürdürmek için çalışanlarını veri işleme en iyi uygulamaları ve ilgili düzenlemelere uyum konusunda iyi bilgilendirmelidir.