Cloudflare, güvenlik ekiplerinin LLM uygulamalarını güvence altına almasına yardımcı olmak için Firewall for AI'ı duyurdu


Cloudflare, insan dilini ve diğer karmaşık veri türlerini yorumlayan bir tür yapay zeka uygulaması olan Büyük Dil Modellerine (LLM'ler) ulaşmadan ve bunları değiştirmeden önce kötüye kullanım ve saldırıları tanımlayacak yeni bir koruma katmanı olan AI için Güvenlik Duvarı'nın geliştirildiğini duyurdu.

Cloudflare'in küresel ağının gücüyle desteklenen Firewall for AI, Cloudflare'i, AI devrimindeki bir sonraki saldırı dalgasıyla (LLM'lerde tutulan işlevselliği, kritik verileri ve ticari sırları hedef alan saldırılarla) mücadele etmeye hazırlanan tek güvenlik sağlayıcılarından biri olarak konumlandıracak.

Yakın zamanda yapılan bir araştırma, üst düzey yönetici düzeyindeki dört yöneticiden yalnızca birinin, kuruluşlarının yapay zeka risklerini ele almaya iyi hazırlıklı olduğuna güvendiğini ortaya çıkardı. Yüksek Lisansların korunması söz konusu olduğunda, kullanıcı etkileşimlerini sınırlamak neredeyse imkansız olduğundan ve bu modeller tasarım tarafından önceden belirlenmediğinden, başlangıçtan itibaren yeterli güvenlik sistemlerini oluşturmak son derece zor olabilir; örneğin, hatta çeşitli çıktılar üretebilirler. aynı girdi verildiğinde. Sonuç olarak, Yüksek Lisans'lar tehdit aktörleri için savunmasız bir yol haline geliyor ve kuruluşları model tahrifatına, saldırılara ve kötüye kullanıma karşı savunmasız bırakıyor.

“Yeni uygulama türleri ortaya çıktığında, yeni tür tehditler de hızla ortaya çıkıyor. Yapay zeka destekli uygulamalar için de durum farklı değil” dedi Cloudflare CEO'su Matthew Prince. “Cloudflare'in Yapay Zeka için Güvenlik Duvarı ile, yapay zeka ortamında güvenliğin en başından itibaren oluşturulmasına yardımcı oluyoruz. İşletmelerin, korunmalarını sağlarken teknolojinin ortaya çıkardığı fırsattan yararlanmasına olanak tanıyacak yapay zeka modelleri için ilk kalkanlardan birini sağlayacağız.”

Cloudflare'in AI için Güvenlik Duvarı ile güvenlik ekipleri, LLM uygulamalarını AI modellerine karşı silah haline getirilebilecek potansiyel güvenlik açıklarından koruyabilecek. Cloudflare, müşterilerin şunları yapmasına yardımcı olacaktır:

  • Yeni tehditleri tespit edin: AI için Güvenlik Duvarı, Cloudflare'in Workers AI üzerinde çalışan herhangi bir LLM'nin önüne dağıtılabilir. Bir kullanıcı tarafından gönderilen istemleri tarayıp değerlendirerek, bir modelden yararlanma ve veri çıkarma girişimlerini daha iyi tanımlayacaktır.
  • Tehditleri otomatik olarak engelle – hiçbir insan müdahalesine gerek kalmadan: Cloudflare'in küresel ağı üzerine inşa edilen Firewall for AI, son kullanıcıya yakın bir yerde konuşlandırılacak ve modelleri neredeyse anında kötüye kullanıma karşı korumak için benzeri görülmemiş bir yetenek sağlayacak.
  • Güvenliği varsayılan olarak ücretsiz uygulayın: Cloudflare'in Workers AI üzerinde Yüksek Lisansı çalıştıran herhangi bir müşteri, Firewall for AI tarafından ücretsiz olarak korunabilir; bu, hızlı enjeksiyon ve veri sızıntısı gibi artan endişelerin önlenmesine yardımcı olur.

Gartner'a göre, “Bir GenAI uygulamasının güvenliğini tek başına sağlayamazsınız. GenAI'ye özgü güvenlik kontrollerini planlayıp dağıtmadan önce her zaman sağlam bir bulut güvenliği, veri güvenliği ve uygulama güvenliği temeli ile başlayın.”

Cloudflare Firewall for AI, mevcut kapsamlı güvenlik platformuna ek katmanlar ekleyerek sonuçta gelişen teknolojinin oluşturduğu tehditleri ortadan kaldıracak.



Source link