Yapay Zeka Modellerinin Güvenliğini Sağlama – Risk ve En İyi Uygulamalar


Üretken AI (Yapay Zeka), 2022 ve 2023’te ChatGPT, DALL-E, Bard, Gemini, GitHub Copilot vb.’nin piyasaya sürülmesinden sonra oyunun kurallarını değiştiren bir hale geldi. [1]. Kuruluşların çoğunluğu yapay zeka stratejilerini belirlemeye çalışıyor ancak Yüksek Lisans ve onun boru hattı güvenliği, sorumluluğu ve etiği göz ardı edilemez. Yapay Zeka, başlangıcından bu yana uzun bir yol kat etti ve artık doğal dil işleme ve bilgisayar görüşünden karar verme ve problem çözmeye kadar geniş bir yetenek yelpazesini kapsıyor. Kullanıcı deneyimi, iş süreci geliştirme ve kişiselleştirilmiş bir çözüm sunmak için güçlü bir araç haline geldi. Etkili risk yönetimi stratejilerinin yapay zeka tabanlı çözümlerle birlikte uygulanması ve geliştirilmesi önemlidir.

Başarılı bir yapay zeka dağıtımı 5 kritik aşama gerektirir

  1. Veri Toplama: Birden fazla kaynaktan ham veri toplama ve toplama süreci (bu, veri kaynaklarının hedefle bütünleştirilmesiyle yapılır).
  2. Veri Temizleme/Hazırlık: Verileri AI kanalı için kullanmadan önce temizleme işlemi (bu, kopyaları kaldırarak ve desteklenmeyen formatı, boş hücreleri veya teknik sorunlara yol açabilecek geçersiz girişleri hariç tutarak yapılır)
  3. Model Geliştirme: Büyük bir veri kümesini eğiterek ve veri kümelerinden belirli kalıpları analiz ederek ve ek insan müdahalesi olmadan tahminlerde bulunarak veri modelleri oluşturma süreci. Burada genellikle yinelemeli bir MDD (model odaklı geliştirme) takip edilir.
  4. Model Sunumu: Makine öğrenimi (ML) modellerini yapay zeka hattına dağıtma ve bunları bir iş uygulamasına entegre etme süreci. Çoğunlukla, API olarak sunulan bu model işlevleri belirli bir ölçekte dağıtılır ve görevleri gerçekleştirmek veya gerçek zamanlı veya toplu verilere dayalı tahminler yapmak için kullanılabilir.
  5. Model İzleme: Modellerin performansının ve etkinliğinin canlı verilere göre değerlendirilmesi ve model kalitesine (ör. gecikme, bellek, çalışma süresi, hassas doğruluk vb.) ilişkin izleme metriklerinin yanı sıra veri kalitesi, model sapması, tahmin sapması süreci. ve adalet.

Şirketler Yapay Zeka modeli geliştirmeyi hızlandırmak için Nesil Yapay Zeka çözümlerini kullanabilirken, bu aynı zamanda çok büyük riskler de doğuruyor [3] kritik özel ve iş verilerine. Veri bütünlüğü ve gizliliği çok önemlidir ve yeni yapay zeka girişimlerini onaylamadan önce ilgili risklerin dikkate alınması gerekir. Yapay zeka çözümleri, doğru uygulamalara uyulmadığı takdirde ciddi bir kötü amaçlı yazılım riski ve etkisi yaratabilir. Farklı saldırı türlerini takip etmek, veri modellerinin bütünlüğünü ve güvenilirliğini tehlikeye atabilir.

  1. Veri Boru Hattı saldırısı – Veri toplamadan veri eğitimine kadar tüm boru hattı, erişim elde etmek, verileri değiştirmek veya kötü niyetli girdiler sunarak gizlilik ihlallerine neden olmak için kolayca istismar edilebilecek geniş bir saldırı yüzeyi sağlar.
  2. Veri Zehirlenmesi saldırısı: Modelin çalışmasını kasıtlı olarak etkilemek veya manipüle etmek için eğitim veri kümelerine zararlı veya yanıltıcı veriler eklemeyi içerir. Bu aynı zamanda mevcut veri kümesini değiştirerek veya veri kümesinin bir bölümünü silerek de yapılabilir.
  3. Model Kontrolü saldırısı – Kötü amaçlı yazılım, modelin karar verme sürecinin daha geniş kontrolünü ele geçirerek hatalı çıktılara neden olur ve yaşam ve kayıp üzerinde önemli bir etkiye neden olur. Bu öncelikle dışarıdan erişilebilen yapay zeka modelleri kasıtlı olarak manipüle edildiğinde (otomatik bir aracın kontrolü gibi) meydana gelir.
  4. Model Kaçırma saldırısı – Bu saldırı, yapay zekanın yanıtlarını veya eylemlerini değiştirmek için kullanıcı girişlerini veya cihaz okumalarını değiştirmek gibi gerçek zamanlı bir veri manipülasyon saldırısıyla sonuçlanır.
  5. Model Ters Çevirme saldırısı – Model çıktısından yararlanarak özel AI eğitim verilerini veya kişisel bilgileri çalmak için yaygın olarak kullanılabilen bir tersine mühendislik saldırısıdır. Örn: Kanseri öngören bir modele yapılan ters çevirme saldırısı, kişinin tıbbi geçmişini çıkarmak için kullanılabilir.
  6. Tedarik Zinciri saldırısı – Saldırganlar, kötü amaçlı kod eklemek ve model davranışını kontrol etmek için model eğitimine, dağıtımına veya boru hattına dahil olan üçüncü taraf yazılım bileşenlerini (ör. açık kaynaklı üçüncü taraf kitaplıkları veya varlıkları) hackler. Örn – 1600 HuggingFace API’sinin sızdırdığı tokenlar nedeniyle [4]Bilgisayar korsanları, model geliştirme tedarik zincirlerinde HuggingFace API kullanan Kuruluşların 723 hesabına erişmeyi başardı.
  7. Hizmet Reddi saldırısı (DoS) – Bu tür saldırılar, AI sistemlerini çok sayıda istek veya girdiyle aşırı yükleyerek, kaynak kesintisi veya tükenmesi nedeniyle performansın düşmesine veya hizmet reddine neden olur. Her ne kadar kritik bilgilerin çalınmasına veya kaybına yol açmasa da, mağdura büyük miktarda zaman ve para kaybettirebilir. Sel hizmetleri ve Çökme hizmetleri iki popüler yöntemdir.
  8. Anında saldırı – Bu saldırılar, saldırganların, sohbet robotları ve sanal asistanlar gibi yapay zeka odaklı çözümler tarafından kullanılan dil öğrenme modellerindeki güvenlik zayıflıklarından yararlanarak kullanıcıları gizli bilgileri ifşa etmeleri için aldattığı manipülatif taktikleri içerir. Örn – Bing Chat’te bulunan bir güvenlik açığı [5] modelleri sırlarını açığa vurmaları için başarıyla kandırdı.
  9. Haksızlık ve Önyargılı Riskler – Yapay zeka sistemleri adil olmayan sonuçlar yaratabilir veya sosyal önyargıları destekleyerek etik, itibar ve yasal sorunlar ortaya çıkarabilir. Yapay zeka çözümlerinin birçok sektörde devrim yaratma ve insanların hayatlarını sayısız şekilde iyileştirme potansiyeline sahip olduğu gerçeği göz önüne alındığında, bu önyargılar ve adaletsizlik azınlıkları, farklı etnik kökenden insanları veya eğitim veri setinde iyi temsil edilmeyen kullanıcıları ciddi şekilde etkileyebilir. Örn – Bir yüz algılama çözümü, beyaz olmayan yüzleri, bu kullanıcılar eğitim setine eklenmemişse tanımayabilir.

Veri modellerinin, MLOps Pipeline’ın ve AI uygulamalarının güvenliğini artırmak için aşağıdaki önerileri sunmak istiyorum. En iyi uygulamalar, ilgili coğrafyalardaki düzenlemelere uyarken güvenlik korkulukları ve varlıkların izlenmesini sağlayacaktır. Yapay zeka modelleri, kuruluşlara rekabet avantajı sağlamada kritik bir rol oynayacaktır; bu nedenle, yapay zeka güvenliğini sağlamak için en önemli varlıkların güvence altına alınması ve çok yönlü yaklaşımın formüle edilmesi yoluyla yapay zeka süreç bütünlüğü ve gizliliği korunmalıdır.

Öneriler

  1. Sıfır güven yapay zekası [6]: Kullanıcı veya uygulama kimliğini kanıtlayamadığı sürece modele/verilere erişim reddedilmelidir. Tanımlandıktan sonra, kullanıcının sınırlı bir süre boyunca yalnızca gerekli verilere erişmesine izin verilmeli, bu da en az ayrıcalıklı erişim, sıkı kimlik doğrulama ve sürekli izleme anlamına gelecektir. Yapay zekaya yönelik “Güven ama doğrula” yaklaşımı, modellerin sürekli olarak sorgulanmasına ve sürekli olarak değerlendirilmesine neden olur – Vault (gizli bilgi yönetimi), Kimlik ve Erişim Yönetimi (IAM) ve çok faktörlü kimlik doğrulama (MFA) burada merkezi bir rol oynar .
  2. Yapay Zeka Malzeme Listesi (AIBOM): Yazılım Malzeme Listesi’ne (SBOM) benzer, ancak yalnızca AI modelleri için hazırlanmış olup, gelişmiş şeffaflık, tekrarlanabilirlik, hesap verebilirlik ve Etik Yapay Zeka hususlarıyla sonuçlanır. AIBOM [7] yönetişimi sağlamak ve bağımlılıkları değerlendirmek için bir yapay zeka sisteminin eğitim veri kaynaklarını, boru hatlarını, model geliştirmeyi, eğitim prosedürlerini ve operasyonel performansı içeren bina bileşenlerini ayrıntılarıyla anlatır. AIBOM’un önerilen şemasına başvurulur [8] Burada.
  3. Veri Tedarik Zinciri – Temiz, kapsamlı ve zenginleştirilmiş yapılandırılmamış ve yapılandırılmış verilere erişim, yapay zeka modelleri için kritik yapı taşıdır. Makine öğrenimi (ML) iş akışlarını ve dağıtımlarını otomatikleştirmek ve basitleştirmek için orkestrasyonu, CICD’yi, ekosistemi, izlemeyi ve gözlemlenebilirliği destekleyen kurumsal AI Pipeline ve MLOps çözümlerine ihtiyaç vardır.
  4. Düzenlemeler ve Uyumluluk – “Veriler yeni petroldür” ve her ülke [9] çıkarlarını korumak için kendi kurallarını uyguluyor. Kuruluşların ilgili bölgede uygulanan yapay zeka veri düzenlemelerine ve uyumluluğuna uyması gerekir. “İnsan merkezli tasarım yaklaşımı” Örn – HR 5628 (Algoritmik Sorumluluk Yasası), HR 3220 Deep Fakes Accountability Yasası), Avrupa Birliği Yapay Zeka Yasası güncel düzenlemelerden birkaçıdır.
  5. Sürekli İyileştirme ve Etkinleştirme – Yapay zeka süreçlerinin ve modellerinin sürekli gelişimiyle birlikte yapay zeka ekosisteminin güvenliği bir yolculuktur. Yalnızca veri bilimcilerine ve mühendislere değil, aynı zamanda yapay zeka uygulamalarını oluşturan ve destekleyen geliştiricilere ve operasyon ekiplerine de sık sık siber güvenlik eğitimi verilmesi için önemli bir girişimde bulunulmalıdır.
  6. CISO’lar için Dengeli Puan Kartı temelli yaklaşım – CISO’lar artık siber güvenlik vizyonlarını paylaşmak ve bunu iş öncelikleriyle uyumlu hale getirmek için yönetim kurulu tartışmalarına davet ediliyor. Metrik odaklı dengeli puan kartı çözümü (CISO’lar Dengeli Puan Kartı Yönteminden Nasıl Yararlanabilir), kurumsal varlıkları kötü niyetli tehditlerden korumak için bütünsel bir yaklaşım sağlar. Dengeli bir puan kartı tabanlı siber güvenlik stratejisi haritası, iş risklerini azaltabilir, üretkenliği artırabilir, müşteri güvenini artırabilir ve kuruluşların veri ihlali korkusu olmadan büyümesine yardımcı olabilir.

Özetlemek gerekirse, yapay zeka operasyonlarını bölümlere ayırarak ve metrik odaklı bir yaklaşım benimseyerek verileri ve varlıkları korumak kritik öneme sahiptir. Yapay zekanın gücünden yararlanma ile veri güvenliği ve etik sonuçlarının ele alınması arasındaki denge, sürdürülebilir bir iş çözümü için çok önemlidir.

Referanslar-

[1] https://blogs.nvidia.com/blog/ai-security-steps/

[2] https://www.leewayhertz.com/ai-model-security/

[3] https://www.hpe.com/in/en/what-is/ai-security.html

[4]https://www.securityweek.com/major-organizations-using-hugging-face-ai-tools-put-at-risk-by-leaked-api-tokens/

[5] https://www.wired.com/story/chatgpt-prompt-injection-attack-security/

[6] https://www.computer.org/csdl/magazine/co/2022/02/09714079/1AZLiSNNvIk

[7] https://snyk.io/series/ai-security/ai-bill-of-materials-aibom/

[8] https://github.com/jasebell/ai-bill-of-materials

[9]https://www.techtarget.com/searchenterpriseai/feature/AI-regulation-What-businesses-need-to-know

Yazar Hakkında

Yapay Zeka Modellerinin Güvenliğini Sağlama – Risk ve En İyi UygulamalarArun Mamgai, bulut tabanlı siber güvenlik, uygulama modernizasyonu, açık kaynaklı güvenli tedarik zincirleri, yapay zeka/makine öğrenimi (ML) ve dijital dönüşüm (dengeli puan kartları, veri yönetimi ve dijital pazarlama dahil) konularında 18 yılı aşkın deneyime sahiptir ve farklı sektörlerdeki Fortune 1000 müşterileriyle çalıştı. Siber güvenlik için üretken yapay zekanın kullanımını ve modern bulut uygulamalarını güvenli bir şekilde geliştirmeyi vurgulayan birçok makale yayınladı. Bağlantılı araçlarda dijital dönüşüm ve uygulama düzeyinde saldırılar gibi konularda önde gelen okullarda konuşma yapmak üzere davet edildi ve teknoloji sektörünün en prestijli ödüllerinden birinde jüri üyeliği yaptı. Kendisi aynı zamanda çok sayıda start-up’a mentorluk yaptı ve ortaokullu kızların geleceğin teknoloji liderleri olmalarını sağlayan kar amacı gütmeyen bir kurumla aktif olarak çalışıyor.

Arun’a şu adresten çevrimiçi olarak ulaşılabilir: ([email protected] veya https://www.linkedin.com/in/arun-mamgai-10656a4/)



Source link