Uzmanlar, yapay zeka (AI) teknolojisinin sınırsız gelişiminin insanlık için oluşturabileceği risk konusunda alarm zillerini çalıyor. Halihazırda veri koruma ve mahremiyet haklarında lider olan Avrupa Birliği’ne (AB) girin ve AB Parlamentosu tarafından yapay zeka teknolojisini yöneten bir yasa üzerinde anlaşmaya varıldı.
Cranium CEO’su Jonathan Dambrot, AB’nin bir kez daha teknoloji düzenlemesinde başı çekmesinin şaşırtıcı olmadığını söylüyor.
“GDPR ve veri gizliliğinde bunu gördük ve şimdi de aynısını yapay zekada görüyoruz” diyor.
Sözde Yapay Zeka Yasası’nın üzerinde anlaşmaya varılan metni muhtemelen daha fazla iyileştirme ve modifikasyondan geçecek olsa da, yasadaki istikrarlı ilerleme, hükümetlerin manşetlere hakim olmaya başlayan bir teknolojiden yararlanma – veya yararlanmaya çalışma – zorluğuna adım attığını gösteriyor. birkaç kısa ay içinde.
KPMG’de siberden sorumlu ABD lideri Kyle Kappel, “İşletmeler bu ortamda gezinirken, GDPR gibi mevcut düzenlemelerin bağlamını ve yaklaşan AI Yasasının temel unsurlarını anlamak çok önemlidir” diyor.
Onun bakış açısına göre, bu düzenlemelere uyum, kullanıcı bilgilerinin dikkatli bir şekilde ele alınması da dahil olmak üzere daha sağlam veri yönetimini uygulamaya koymak anlamına gelir.
“İşletmeler ayrıca AI kararlarının açıklanabilirliğini sağlamaya, AI davranışını belgelemeye ve önyargı gibi endişeleri gidermek için potansiyel olarak harici testlere tabi tutulmaya hazır olmalıdır” diye ekliyor.
Gelişen yapay zeka düzenlemelerine uyum, işletmeleri, düzenlemeleri birbirine bağlı bileşenler olarak ele alarak tutarlı veriler ve yapay zeka/ML operasyonel uygulamaları (MLOps) oluşturmaya yönlendirecektir.
İki taraflı kılıç
Ontinue’de güvenlik operasyonlarından sorumlu başkan yardımcısı Craig Jones, yeni düzenleyici ortamın iki ucu keskin bir kılıç işlevi görebileceğini söylüyor.
“Siber güvenlikte daha sağlam, etik ve güvenli yapay zeka uygulamalarını teşvik etse de, deneysel yaklaşımları frenleme ve inovasyon hızını yavaşlatma potansiyeline sahip” diyor.
Jones’un bakış açısına göre, sorumlu yapay zeka kullanımını sağlamak ile canlı, dinamik bir araştırma ve geliştirme ekosistemini sürdürmek arasında ince bir çizgi var.
“İyi tarafı, Yasa, bu teknolojilere daha fazla kamu güveni aşılayabilen etik ve güvenli yapay zeka uygulamalarını sağlamayı amaçlayan bir düzenleyici güvenlik ağı sağlıyor” diyor. “Aynı zamanda AI şeffaflığı ve hesap verebilirliği için çıtayı yükseltiyor.”
Dezavantajı, AB’yi AI girişimleri ve girişimciler için daha az çekici hale getirerek AI inovasyonunun hızını azaltabilmesi olabilir.
“Şeffaflık ve tescilli algoritmaların korunması arasındaki denge de karmaşık bir zorluk teşkil ediyor” diye belirtiyor.
Yapay Zeka Yönetmeliğine Küresel Etki
Tanium’da teknik hesap yönetiminden sorumlu başkan yardımcısı Chris Vaughan, Yapay Zeka Yasası’nın birçok ticari kuruluşu AB çerçevesi içinde çalışmaya zorlayacağını söylüyor.
“Birçok şirketin içinde iş yapmak istediği güçlü ve köklü bir pazar yeridir” diyor. “Bunu yapmak için AB yasalarına şikayette bulunmaları gerekiyor. Bu anında küresel bir etki yaratıyor.”
Cranium’dan Dambrot, AB’nin kararının GDPR’nin yaptığı gibi “kesinlikle” küresel bir etkiye sahip olacağına katılıyor.
“İnsanlar yapay zekadan tarihsel olarak mahremiyetlerinden daha çok korkuyorlar. AB, ABD, Çin ve düzenleyici her büyük güce duyulan ihtiyaç, yapay zekanın evrensel olarak benimsenmesi için önemli olacak” diyor. “AB AI Yasası ile Avrupa, bu düzenlemelere yaslanıyor ve ilk hamle avantajını alıyor.”
Kapsamlı bir çerçeve veya rehberlik yoksa, ABD şirketlerinin eyalet ve federal düzeyde birbiriyle rekabet eden uyumluluk baskıları olacağını da ekliyor.
Dambrot, “Gizlilik emsali eyaletlerin liderliği almasına rağmen, AI’nın sorumlu ve güvenli kullanımını düzenlemeye yardımcı olacak AB AI Yasası gibi kapsamlı bir AI düzenlemesi olmasını umuyorum” diyor. Bu, hem ABD’li hem de yabancı AI geliştiricilerinin istemcilere daha iyi hizmet vermesini ve güvenli bir şekilde gezinmesini kolaylaştırmaya yardımcı olacaktır.
“OpenAI gibi büyük teknoloji oyuncularının Kongre’ye ‘lütfen bizi düzenleyin’ dediğini görmek gerçekten ilginç” diye ekliyor.
ABD Zorlu Düzenleyici Engellerle Karşı Karşıya
Bununla birlikte, Abnormal Security’nin CISO’su Mike Britton da dahil olmak üzere herkes ABD’nin hızlı hareket edeceğinden o kadar emin değil. Yeni başlayanlar için, ABD genel olarak mahremiyet ve düzenleme söz konusu olduğunda geride kalıyor.
“Avrupa’da olduğu gibi ABD’de mahremiyetin temel bir hak olmadığı gerçeği de dahil olmak üzere çeşitli nedenlerle karmaşık” diyor.
ABD yasa koyucuları için bir başka büyük zorluk: Gizlilik düzenlemeleri, belirli bilgi türleri etrafında uygulanmaktadır – sağlık hizmetleri için HIPAA, finansal hizmetler için GLBA, çocukların gizliliğinin korunması için COPPA.
“Şu anda bu çeşitli mahremiyet yasalarını uyumlu hale getirmek için çok az istek var, çünkü ajanslar ve kuruluşlar zaten bu alanları yöneten düzenlemeler üzerinde hak iddia etti” diyor.
Son olarak Britton, “Big Tech”in kendi kendini düzenleme için lobicilik yapmada ve teknolojiyi düzenlemeye yönelik bir bırakınız yapsınlar yaklaşımı benimsemede son derece başarılı olduğuna dikkat çekiyor.
“Aynısını burada yapmak için çok zorlayacaklarını tahmin ediyorum” diyor. “İyi tarafından bakarsak, Beyaz Saray kısa süre önce bir AI Bildirgesi yayınladı, bu da konuya biraz önem verildiğini gösteriyor.”
AI’nın Siber Güvenlik Üzerindeki Etkisi
Dambrot, yapay zekanın olay müdahalesi ve SOC’den üçüncü şahıs riskine ve diğer uygulamalara kadar hemen hemen her siber işleve gireceğini tahmin ediyor ve bu yıla kadar yapay zekaya henüz öncelik vermemiş olan CISO’ların artık arayı kapatması gerektiği konusunda uyarıda bulunuyor.
Tanium’dan Vaughan, “ChatGPT gibi teknolojiler artık kötü amaçlı yazılımları yeniden yazabilecekleri bir noktada, yani geleneksel algılama programları onu tanımlayamıyor,” diye açıklıyor Tanium’dan Vaughan.
Vaughan, siber güvenlik ve AI inovasyonunun kimin daha hızlı gelişebileceğini görmek için bir kedi-fare oyununda rekabet edeceğini tahmin ediyor.
“Örneğin, kötü amaçlı yazılım, kimlik avı ve siber saldırılar geliştikçe, savunmacı emsaller de gelişmelidir” diyor. “Aynı zamanda yapay zeka teknolojisinin derin sahtekarlıklar gibi kötü amaçlı kullanımına karşı da korunmaya ihtiyacımız var. Gerçek görüntülerle çevrimiçi tacizle ilgili yeterince sorunumuz var – sahte görüntülerin karışıma girmesine izin vermenin feci sonuçları olabilir.”
Gizlilik Gereksinimleri Yapay Zekayı Nasıl Etkiler?
AB mevzuatı, yapay zekanın bireylere zarar verebilecek ve teknolojinin ilerlemesini etkileyebilecek yönlerine odaklanmaktadır.
Vaughan, “AI yenilikleri daha zor hale gelebilir” diyor. “AI algoritmaları, bir yerden alınması gereken verilere dayalıdır.”
Şimdiye kadar, AI geliştiricilerinin verilerini nereden aldıklarını veya AI sistemlerini öğretmek için nasıl kullandıklarını açıklamaları için – varsa – çok az gereksinim olmuştur.
Bununla birlikte, yeni AB mevzuatı ile yenilikçiler, verilerinin kaynağını açıkça belirtmek ve yapay zeka algoritmalarını eğitmek için bu verileri nasıl kullandıklarına ilişkin ayrıntıları sağlamak zorunda kalacaklar. Bu, AI teknolojisinin geliştirilmesinde şeffaflık ve hesap verebilirliği sağlamak içindir.
Dambrot, “Bazı istenmeyen sonuçlar var – unutulma hakkını düşünün” diyor. “Bireyler, bir modelin eğitimine dahil edilmiş olabilecek PII’larının kaldırılmasını talep edebiliyorsa, o zaman bu modelin güvenlik etkisi nedir?”
Vaughan, “Bu, işletmeler için ek bürokrasi yarattı, ancak nihayetinde insanları koruyor” diye belirtiyor. “İnovasyonda biraz gecikme, güvenlik için değerli bir fedakarlıktır.”