Startup’lar Anında Yapay Zeka Güvenliği Oluşturmak İçin Mücadele Ediyor


YORUM

2003’ün başında kimse, sektöre yapay zekayı (AI) güvence altına almak için yakın bir süre tanınacağını bilmiyordu. Daha sonra ChatGPT her şeyi değiştirdi. Ayrıca makine öğrenimi güvenlik işlemleri (MLSecOps), AppSec iyileştirme ve tamamen homomorfik şifrelemeyle yapay zekaya gizlilik ekleme üzerinde çalışan startup’ları da yükseltti.

Yapay zeka tehdidi fazla abartılmıyor. Günümüzün yapay zekasının ne kadar güvensiz olduğunu abartmak zor olurdu.

Yapay zekanın en büyük saldırı yüzeyi, Meta’nın Llama’sı veya Nvidia, OpenAI, Microsoft gibi devlerin ürettiği temel modelleri içerir. Bunlar geniş veri kümelerine karşı eğitilir ve daha sonra aşağıdaki gibi sitelerde açık kaynak haline getirilir: Sarılma Yüz. Günümüzün makine öğrenimi (ML) gelişiminin büyük çoğunluğu bu temel modellerin yeniden kullanılmasını içerir.

En azından şu anda sıfırdan ısmarlama modeller oluşturmanın çok pahalı olduğu kanıtlandı. Bunun yerine mühendisler temel modelleri ayarlar, onları ek veriler konusunda eğitir ve bu modelleri geleneksel yazılım geliştirmeyle harmanlar.

Temel modeller, yazılım tedarik zincirindeki mevcut tüm güvenlik açıklarının yanı sıra yapay zekanın yeni matematiksel tehditlerine de sahiptir. Yeni MITRE ve OWASP çerçeveleri beklenen saldırıların güzel bir kataloğunu sunsa da, bu hâlâ Vahşi Batı’dır.

Zaten savunmasız bir modeli konuşlandırıp konuşlandırmadığınızı anlayabiliyor musunuz? Piyasaya sürülmeden önce model versiyonlarını numaralandırma konusunda tam anlamıyla yaygın bir uygulama yoktur. Yapay zeka kurumu şu ana kadar doğruluk, güven ve etikle ilgili risklere odaklandı. Siber güvenlik konusunda hiçbir şey başaramadılar.

Yapay Zeka Doğası gereği Güvensiz Olabilir

SQL enjeksiyonu gibi geleneksel saldırılar, küçük miktarlardaki yapılandırılmış giriş dizelerindeki karakterlerin değiştirilmesini içeriyordu. Yine de bu istismarın ortadan kalkması 20 yıl sürdü. Büyük yapılandırılmamış girdilerin matematiksel istismarlarını çözmenin zorluğunu düşünün. Bir görüntüdeki tek bir pikseli bile değiştirebilir ve farklı model çıktıları elde edebilirsiniz. Bazıları, yama yapılmasına rağmen temel modellere saldırmak için girdileri değiştirmenin her zaman yollarının olacağına inanıyor.

Ve bir modeldeki bilinen tüm güvenlik açıklarını düzeltmek kolay değil. Yeniden eğitim, doğası gereği performansı ve kaliteyi düşüren “fazla uyum” gibi makine öğrenimi tuzağına düşebilir.

Yazılım kompozisyonunu analiz etmenin de yeniden düşünülmesi gerekir. Bir uygulama sürekli öğreniyorsa nasıl yapay zeka malzeme listesi oluşturulabilir? ML modelleri aslında herhangi bir günde farklıdır.

MLSecOps’un Vizyonerleri Bizi Kurtaracak mı?

MLSecOps içindeki bir avuç startup, makine öğrenimi yaşam döngüsünün hangi kısmına odaklanmaları gerektiği konusunda hararetli bir tartışma yürütüyor.

Binlerce akademik makale, MITRE Atlas çerçevesinde olduğu gibi konuşlandırılmış üretim modellerine yönelik düşmanca yapay zeka saldırılarını anlatıyor. Gizli Katman 2023’ün startup yarışması Innovation Sandbox’ın kazananı oldu. Rakip yapay zekaya odaklanır ancak aynı zamanda müdahaleyi ve erken makine öğrenimi hattının bir kısmını da kapsar.

Üretim ortamlarındaki modellere karşı kullanılan rakip yapay zeka, halkın dikkatini çekti. Ancak birçok MLSecOps satıcısı, kaç tane siyah şapkanın yüksek bilgi işlem maliyetlerini karşılayabileceğini sorguluyor. Ayrıca, potansiyel kurbanların model sorgularını o kadar azaltabileceğini ve MITRE Atlas’taki saldırıların işe yaramasına yetecek kadar etkileşimin olmayacağını da göz önünde bulundurun.

Koruma AI, MLSecOps alanında sola kaydı. Özel model geliştirmeyi, eğitim verilerini güvence altına alır ve temel modelleri güvenlik açıklarına karşı analiz eder. Onun MLSecOps.com topluluk, sızdırılan kimlik bilgilerinden ve açığa çıkan eğitim verilerinden çok sayıda matematiksel istismara kadar güvenlik açıklarını ayrıntılarıyla anlatıyor.

Her ikisi de temel modellerin güvence altına alınabileceği konusunda şüpheci olan Adversa AI ve Calypso AI tarafından başka bir tartışma yürütülüyor. Barutlarını başka yaklaşımlara ayırdılar.

Adversa AI, kırmızı takım hizmetlerinin yanı sıra temel model kalem testini ve doğrulamasını otomatikleştirir. Calypso AI, model istemleri ve bunların yanıtları noktasındaki güvenlik açıklarını günlüğe kaydetme veya engelleme yoluyla puanlamaya odaklanır.

Startup’lar Tamamen Homomorfik Şifreleme (FHE) Konusunda Gerçekçi Oldu

FHE, eskinin ya hep ya hiç şifrelemesinden oldukça farklıdır. FHE, zengin bir şema içeren yapılandırılmış bir şifreli metin çıktısı verir. Hâlâ şifrelenmiş olmasına rağmen FHE, birçok makine öğrenimi algoritması, sinir ağı ve hatta büyük dil modelleri (LLM’ler) tarafından verimli bir şekilde kullanılabilir. Ve FHE, kuantum bilişimin kaba kuvvet saldırılarına karşı güvendedir.

Büyülü matematik, sırların şifresini çözmeye ve ifşa etmeye gerek kalmadan verilere ilişkin iş öngörülerinin toplanmasına olanak tanır. Birden fazla taraf arasında güvenli işbirliğinin yolunu açar. Yatırımcıların, iş kullanıcıları ile dünyadaki ChatGPT’ler arasında gerçek gizliliği güvence altına alabilecek bir teknoloji karşısında ağızlarının suları akıyor.

Ne yazık ki, FHE’nin vaadi, yapılandırılmış şifreli metninin boyutuyla yüzleştiğinde boşa çıkıyor. Şifrelemeden sonra şifreli metin, düz metin boyutunun 10 ila 20 katına kadar balonlaşır. Şifrelemenin hesaplama süresi ve maliyeti de çok yüksek.

Nisan 2023’te Innovation Sandbox finalisti Zama, FHE’sinin çoğu ticari uygulama için her şeyi şifrelemeye hazır olmadığını sahnede itiraf etti. Birçoğu hayal kırıklığına uğradı, ancak Zama’nın yetersiz kaldığı bir itiraf değildi. Bu, doğası gereği performans göstermeyen ama son derece güçlü şifrelemenin belirli yüksek değerli kullanımlar için nasıl kullanıldığına dair bir vizyondu.

Eskinin şifreleme algoritmaları herkese uyan tek bedendi. FHE ise esnek şifreli metin şemaları üretir ve farklı iş amaçları için farklı algoritmalarla uygulanabilir.

Zama’nın FHE’si, yatırımcıların akıllı sözleşmelerini ifşa etmeden kullanılabilecek blockchain şifrelemesine odaklanıyor. Lorica Security, hem sorguları güvenli veri depolarında hem de yanıtlarını gizli tutmaya odaklanan yeni bir girişimdir. İki küçük FHE girişimi de 2023’te stratejik yatırımlar aldı.

Yapay zeka, dünya çapında faydalar vaat ediyor ancak giderek artan bilgi işlem maliyetleri nedeniyle ağırlığını yitiriyor. Erken büyüyen girişimlerdeki yalnızca az sayıda yenilikçi, yapay zeka güvenliği konusunda tutarlı vizyonlara sahip. Bunları yakından takip etmek akıllıca olacaktır.





Source link