Şirketler yapay zeka modellerinde önyargı ve gizlilik sorunlarını nasıl çözebilir?


Bu Help Net Security röportajında ​​Holistic AI Eş CEO’su Emre Kazım, şirketlerin sorumlu yapay zeka uygulamalarını en başından itibaren iş stratejilerine entegre etme ihtiyacını tartışıyor. Önyargı, mahremiyet ve şeffaflık gibi sorunların ele alınmasının, yalnızca düzenlemelere bağlı kalmak yerine nasıl proaktif ve çok yönlü bir yaklaşım gerektirdiğini araştırıyor.

Yapay zeka stratejisi

Şirketler yapay zeka modellerinde önyargıyı, gizlilik endişelerini ve şeffaflık eksikliğini nasıl giderebilir?

Bu zorlukların ve daha fazlasının üstesinden gelmek için şirketlerin açık ve proaktif bir yapay zeka yönetişim planına ihtiyacı var. Yapay zekayı önemli bir iş girişimi olarak gören şirketler için yapay zeka yönetişiminin en başından itibaren BT stratejilerine dahil edilmesi gerekiyor. Bu bir onay kutusu öğesi değildir. Kapsamlı bir yapay zeka yönetişim planı, hükümet düzenlemelerini ve/veya standartlarını, güvenlik talimatlarını ve iş düzeyindeki temel performans göstergelerini (KPI’ler) ele alır ve aşağıdaki hususları içerir:

  • Etkinlik – Yapay zeka iş yükü yapmayı planladığı şeyi başarıyor mu? Verimli mi? Kullanım durumuna ve amacına göre iyi performans gösteriyor mu?
  • Sağlamlık – Koşullar geliştikçe veya onu zayıflatmaya yönelik kötü niyetli çabalar karşısında sistem performansını nasıl koruyor? Sistem düşman tehditlerine karşı ne kadar iyi savunma yapıyor?
  • Mahremiyet – sistem, hassas veya kişisel bilgileri açığa çıkarabilecek veri sızıntısı riskiyle karşı karşıya mı?
  • Ön yargı – Sistemde önyargı olup olmadığını belirlemek için modeli amaçlanan kullanım durumuyla ilişkili olarak derinlemesine inceler. Önyargı çeşitli senaryolarda farklı şekilde ele alınır, dolayısıyla bunu bağlam içinde ölçmek kritik öneme sahiptir. Örneğin, bir tıbbi teşhis uygulamasında belirli kişileri veya insan gruplarını seçmek isteyebilirsiniz (örneğin, belirli bir soydan gelen yaşlı erkeklerin kalp krizine yatkın olması gibi), ancak bunu bir işe alım uygulamasında yapmak istemezsiniz.
  • Açıklanabilirlik – Yapay zeka sistemi hem kullanıcılar hem de geliştiriciler için anlaşılır mı? Sistemin bu tahmine veya sorunun cevabına nasıl ulaştığını anlayabilir miyiz? Bu şeffaflığın ve güvenin anahtarıdır.

Yapay zeka yönetişimi yalnızca risklerden kaçınmakla ilgili değildir; ekiplerin birlikte çalışmasına ve daha etkili olmasına yardımcı olarak bir şirketin yapay zekayı benimsemesini hızlandırmakla ilgilidir. Şirketler yapay zekayı açık ve işbirliğine dayalı bir şekilde yöneterek yapay zekayı daha hızlı benimseyebilir ve daha iyi sonuçlar elde edebilir. Önyargı, uyumluluk, etkililik, sağlamlık ve açıklanabilirlik gibi risklerin ve iş performansı ölçümlerinin tam bir görünümünü sunan araçları kullanan şirketler, adil, güvenli ve şirket hedefleriyle uyumlu yapay zeka sistemleri oluşturmanın daha kolay olduğunu görüyor.

AB’nin Yapay Zeka Yasası gibi yeni ortaya çıkan düzenlemeler, sorumlu yapay zekanın benimsenmesini nasıl şekillendiriyor?

Dünyanın dört bir yanındaki birçok hükümet, yapay zeka kullanımı söz konusu olduğunda vatandaşlarını korumaya yönelik düzenlemeler yapmayı düşünüyor. Aslına bakılırsa, şu anda dünya çapında yaklaşık 500 yapay zeka yasası yürürlükte olup bunların 200’ü ABD’de federal düzeydedir ve yalnızca GenAI ile ilgili 83 dava bulunmaktadır. Bu çok aktif düzenleyici ortam, kesinlikle işletmelerin yapay zeka uygulamalarında sorumluluk ve adaleti en başından itibaren düşünmeye itmesine yardımcı oluyor.

Ancak işin içinde daha da güçlü piyasa güçleri var. Şirketler, yapay zekanın benimsenmesinin hayatta kalmaları için hayati önem taşıdığını ve yarının kazananlarının yapay zekayı etkili bir şekilde kullanma becerilerine göre belirleneceğini anlıyor. Ayrıca marka itibarının en değerli varlıklarından biri olduğunun bilincindedirler. Özellikle görev açısından kritik bağlamlarda (bir ticaret algoritmasının ters gittiğini, kullanıcı gizliliğinin ihlal edildiğini veya güvenlik standartlarının karşılanmadığını düşünün) yapay zekayla ilgili yanlış adımlar, halkın güvenini aşındırabilir ve bir şirketin kârına zarar verebilir. Bunun çok vahim sonuçları olabilir. Bir şirketin rekabet gücü ve potansiyel olarak hayatta kalması tehlikedeyken, yapay zeka yönetişimi göz ardı edemeyecekleri bir iş zorunluluğu haline geliyor.

Yapay zekadaki inovasyon hızlandıkça, sorumlu yapay zekaya yönelik mevcut çabaların yeterli olduğuna mı inanıyorsunuz yoksa daha sağlam çerçevelere mi ihtiyacımız var?

Yapay zekanın benimsenmesinde henüz ilk günler ve sorumlu yapay zekaya yönelik yönelimin birçok yönden geleceğine inanıyorum. Elbette, hükümetin hem eyalet hem de federal düzeyde parçalı bir yaklaşım yaratan pek çok faaliyeti olduğunu görüyoruz. Ayrıca yapay zekayı benimsemenin gelecekleri için hayati önem taşıdığını anlayan ve hızlı hareket etmek isteyen lider şirketleri de görüyoruz. Düzenleyici ortamın yerleşmesini beklemiyorlar ve marka itibarlarını korumak için sorumlu yapay zeka ilkelerini benimseme konusunda liderlik pozisyonu alıyorlar. Bu nedenle şirketlerin yapay zeka girişimlerini hızlandırmak ve iş getirilerini artırmak için kendi çıkarları doğrultusunda akıllıca hareket edeceklerine inanıyorum. Ancak bu motivasyonlar, daha geniş toplumsal faydayla güzel bir şekilde uyum sağlıyor: güvenli, emniyetli ve güvenilir yapay zekanın yaygınlaştırılması.

Kurumsal itibar ve piyasa güçleri, yapay zeka yönetiminin sonradan akla gelen bir düşünce değil, bir iş zorunluluğu olmasını sağlıyor. Bu durum düzenleyici çabalarla eş zamanlı olarak gerçekleşmektedir. Ve bu herkes için iyi bir haber.

Yapay zeka kararlarının öngörülemez doğası göz önüne alındığında, yapay zeka ile ilgili risklerin izlenmesi ve azaltılması için hangi risk yönetimi stratejilerini önerirsiniz?

Şirketler, kurumsal verileri yönetmek için veri yönetişimini ve bulut bilişime geçişlerini denetlemek için bulut yönetişimini kurdukları gibi, şimdi de yapay zekayı benimsemelerine rehberlik edecek kapsamlı bir yapay zeka yönetişim stratejisi benimsemeleri gerekiyor.

Etkili yapay zeka yönetişimi, tüm yapay zeka yaşam döngüsünü kapsayarak kurumsal strateji, etik ilkeler ve düzenleyici gerekliliklerle uyum sağlar.

Sağlam bir yönetişim çerçevesi, benimseme ve geliştirmeden risk yönetimine kadar yapay zeka kullanımının her aşamasını ele alır. İzleme, bu süreçte kritik bir rol oynar ve sürekli gözetim ve uyumluluğu sağlar. Yapay zeka yönetişiminin uygulanmasındaki temel adımlar şunları içerir:

  • Envanter ve keşif: Yapay zeka sistemlerini ve varlıklarını tanımlama ve kataloglama.
  • İlk katılım ve iş akışları: Yapay zekanın operasyonlara entegre edilmesine yönelik süreçlerin tanımlanması.
  • Politikalar, belgeler ve uyumluluğa hazırlık: Açık yönergeler oluşturmak ve AB AI Yasası veya NIST veya şirketin kendi tasarımlarından biri gibi düzenleme ve çerçevelere bağlılığın sağlanması.
  • Test etme, doğrulama ve risk optimizasyonu: Yapay zeka performansının değerlendirilmesi ve potansiyel risklerin azaltılması.
  • Raporlama, uyarılar ve analizler: Kapsamlı izleme yoluyla içgörü ve erken uyarı sağlanması. Ayrıca sistem iş KPI’larını ve performansını nasıl sağlıyor?
  • Yatırım getirisi takibi: Yapay zeka yatırımlarının ürettiği değerin ölçülmesi.
  • Sürekli izleme: Ortaya çıkan zorlukların üstesinden gelmek için sürekli dikkatin sürdürülmesi.

Kuruluşlar bu adımları izleyerek yapay zeka girişimlerinin stratejik, etik ve sürdürülebilir olmasını sağlayabilirler.

Yapay zeka sistemlerinin arızalandığı veya taraflı çıktılar ürettiği senaryolar için kuruluşların hangi özel olay müdahale protokollerine sahip olması gerekir?

Etkili bir yapay zeka yönetişim stratejisine sahip şirketler, potansiyel riskleri proaktif olarak daha iyi ele alabilir ve en kötü senaryoları önleyebilir. Aslında analistler, 2028 yılına kadar kapsamlı yapay zeka yönetişim platformları uygulayan kuruluşların, bu tür sistemlere sahip olmayanlara kıyasla yapay zeka ile ilgili etik olaylarda %40 daha az deneyimleyeceğini bildiriyor.

Bunun temel faktörlerinden biri, sorunları hızlı bir şekilde tespit edip yanıt vermek için uygulamanın görev açısından ne kadar kritik olduğuna ve risk düzeyine bağlı olarak periyodik veya sürekli olarak sürekli izlemedir. Bu izleme, önceden tanımlanmış korkuluklara göre uygun ekipleri otomatik olarak bilgilendirebilir ve sorunlar ortaya çıktığında iyileştirme adımları önerebilir.

Ekiplerin acil durumlara karşı eğitilmesini ve hazırlıklı olmasını sağlamak da aynı derecede önemlidir. Tıpkı sağlam bir güvenlik olayı müdahale planı gibi, işlevler arası ekiplerle yapılan düzenli eğitim oturumları da çok önemlidir. Bu oturumlar, iyileştirme stratejilerinin uygulanması ve iletişim müdahale planının iyileştirilmesi de dahil olmak üzere yapay zeka olay senaryolarını simüle etmelidir.

Müşterilerle iletişim kurarken şeffaflığa, dürüstlüğe ve özgünlüğe öncelik verin. Bildiklerinizi derhal paylaşın, yeni bilgiler ortaya çıktıkça güncellemeler sağlayın ve müşterilerinize, sorunu çözmek için hızlı bir şekilde harekete geçeceğiniz konusunda güvence verin. Doğru şekilde ele alındığında, olaya etkili müdahale, bir markanın sorumlu yapay zekaya ve yüksek düzeyde hesap verebilirliğe olan bağlılığını sergileyerek müşteri tabanında güven oluşturmasına bile yardımcı olabilir.



Source link