Veri Durumu ve AI: Güvenlik ve Gizlilik


İnsan düşünceleri

Yapay zeka sistemlerini güvence altına almak için teknik gereksinimler önemli olmakla birlikte, birçok kuruluş zorluğa hümanist bir yaklaşım benimsemeyi ödüyor.

Uluslararası reklam ajansı TBWA’da, Avustralya’nın baş AI ve İnovasyon Sorumlusu Lucio Ribeiro, hem etik hem de güvenliğin AI yolculuklarının en eski aşamalarından yönetim için aklın önünde olduğunu söyledi. Şirket, yapay zeka yatırımları için yönetişim, risk ve şeffaflık arasında yapı sağlayan ve AI yatırımlarının uygunluğunu ve güvenliğini değerlendirirken hayati önem taşıyan kolektif bir AI çerçevesi oluşturmuştur.

Ribeiro, “Sosyal medyada ne kadar iyi görünseler de standartlarımızı karşılamayan birçok aracı geri çevirdik” dedi.

“İnsanların çevrimiçi olarak yayınladığı şeylerin çoğu – genai videoları ve reklamları, iş akışı otomasyonları, görüntü jeneratörleri veya AI tarafından oluşturulan vaka çalışmaları – etkileyici görünebilir, ancak bu araçların çoğu bir kurumsal ortamda sorumlu bir şekilde kullanılamaz.

“Genellikle net IP hakları, veri korumaları veya ticari terimler yoktur. Sorumsuzca denemeyi göze alamayız. Müşterilerimiz – ve biz – AI kovboyları olmayı göze alamayız.”

Ribeiro, TBWA’nın Ai’yi güvenli bir şekilde kucaklama arayışının, işin bu gereksinimin AI kullanarak yenilik yapmasını engellemediğini sağlamak için adımlar attığını gördüğünü söyledi. Bu, AI tabanlı deneyleri destekleyen net sınırlara sahip ‘güvenli’ ortamların oluşturulmasına yol açmıştı.

Ribeiro, “Güven tehlikeye girerse, yaratıcılık da” dedi.

“Yani prensibimiz kalıyor: Hızlı inşa edin, güvenli bir şekilde test edin, sadece güvenli olanı ölçeklendirin.”

AI vakıflarını güvence altına almak

Güvenlik, AI teknolojisinin benimsenmesinin ek güvenlik boyutlarının getirilmesine yol açtığı Avustralya Ulusal Üniversitesi’nde gerçekleştirilen dönüşüm programında temel bir sütun olarak yerleşmiştir.

Üniversitenin dijital altyapı ve bilgi güvenliği direktörü Sajid Hassan, AI iş yükleri için hesaplama gücünün yoğunlaşması, ANU’nun hassas araştırmalar için izole işleme yetenekleriyle güvenli hesaplama ortamları geliştirmesini gerektirmiştir.

Hasan, “Gelişen AI düzenlemeleri ve yönergelerine uyum, sürekli dikkat gerektiren hareketli bir hedef haline geldi” dedi.

“Özellikle AI modellerinin kendileri değerli araştırma çıktıları haline geldikçe, fikri mülkiyetin korunmasıyla araştırma işbirliği için gereken açıklığı dikkatlice dengelemek zorunda kaldık.

“Bu düşünceler bizi geleneksel BT güvenlik önlemlerinin ötesine geçen yapay zeka araştırmaları için özel yönetişim çerçeveleri geliştirmeye yönlendirdi.”

Yapay zekaya yapılan yatırımlar, üniversitenin etik çerçevelerinde bir evrim yaratmış ve algoritmalardaki önyargılardan AI güdümlü karar almada şeffaflığa kadar sorunları ele alan araştırmalarda sorumlu AI kullanımı için kapsamlı yönergelerin oluşturulmasına yol açmıştır.

Hassan, “AI inovasyonu ve eşitlik, erişilebilirlik ve araştırma bütünlüğü taahhütleri de dahil olmak üzere üniversite değerleri arasında uyum sağlamak için çalıştık” dedi.

“Bu, etik standartları korurken inovasyonu sağlayan çerçeveler geliştirmek için araştırmacılar, etikçiler ve daha geniş üniversite topluluğu ile kapsamlı bir istişare içeriyordu.”

Veri yönetişim çerçeveleri, özellikle araştırmada kişisel verilerin kullanımı ile ilgili olarak AI uygulamalarına özgü gizlilik endişelerini gidermek için geliştirilmektedir. Üniversite ayrıca, her zaman insan gözetimi ve otomatik kararları anlama ve meydan okuma yeteneği olmasını sağlamak için öğrencileri veya personeli etkileyen yapay zeka odaklı kararlar için şeffaflık gereksinimleri de uygulamıştır.



Source link