Yapay Zeka Güvenliğinin Zorlukları Onu Tanımlamakla Başlar


Yapay zeka herkesin dikkatini çekmeye devam ederken, yapay zeka güvenliği de fikir pazarında popüler bir konu haline geldi. Yapay zeka için güvenlik, medya döngüsünü yakalıyor; Yapay zeka güvenlik girişimleri soldan sağa gizlilikten çıkıyor; ve yerleşik şirketler yapay zekayla ilgili güvenlik özelliklerini yayınlamak için çabalıyor. Güvenlik ekiplerinin yapay zeka konusunda endişeli olduğu açık.

Peki “Yapay Zeka güvenliği” tam olarak ne anlama geliyor?

Açıkçası yapay zeka için güvenliğin ne anlama geldiğini henüz bilmiyoruz çünkü yapay zeka geliştirmenin ne anlama geldiğini hâlâ bilmiyoruz. “Güvenlik X” genellikle sonra gelir X Olgunlaştı (bulut, ağ ve Web uygulamalarını düşünün), ancak yapay zeka hareketli bir hedef olmaya devam ediyor.

Yine de yapay zeka güvenliğinin bir parçası olarak ortaya çıkan birkaç farklı sorun kategorisi var. Bunlar bir organizasyon içindeki farklı rollerin kaygılarıyla örtüşmektedir, dolayısıyla bunların kolayca birleşip birleşemeyeceği belirsizdir, ancak elbette bazı örtüşmeler de vardır.

Bu sorunlar şunlardır:

  1. Güvenli yapay zeka uygulamaları oluşturma

Bunları birer birer ele alalım.

1. Görünürlük

Güvenlik her zaman görünürlükle başlar ve yapay zeka uygulamalarının güvenliğini sağlamak da farklı değildir. Muhtemelen kuruluşunuzdaki birçok ekip şu anda yapay zeka uygulamalarını kullanıyor ve geliştiriyor. Bazıları bunu doğru şekilde yapacak bilgiye, kaynaklara ve güvenlik bilgisine sahip olabilir, ancak diğerleri muhtemelen yoktur. Her ekip, uygulamalarını geliştirmek için farklı bir teknoloji kullanıyor ve doğru çalıştıklarından emin olmak için farklı standartlar uyguluyor olabilir. Uygulamaları standartlaştırmak için bazı kuruluşlar uzman ekipler oluşturur. tüm yapay zeka uygulamalarının envanterini çıkarın ve inceleyinKuruluşta bu kolay bir iş olmasa da görünürlük bu süreci başlatmak için yeterince önemlidir.

2. Veri Sızıntısının Önlenmesi

ChatGPT ilk başlatıldığında, birçok kuruluş umutsuzca onu engellemeye çalışarak aynı yolu izledi. Her hafta şirketlerin IP'lerini yapay zekaya kaptırdıklarıyla ilgili yeni manşetler çıkıyordu; çünkü bir çalışan, son derece gizli verileri sohbete kopyalayıp yapıştırarak bu konuda bir özet veya komik bir şiir isteyebiliyordu. Birkaç hafta boyunca herkesin konuşabileceği tek şey buydu.

ChatGPT'nin kendisini veya tüketici pazarında görünmeye başlayan diğer yapay zekaları kontrol edemediğiniz için, bu giderek artan bir zorluk haline geldi. Kuruluşlar, onaylı kurumsal yapay zeka hizmetleriyle kabul edilebilir kullanım politikaları yayınlıyor ancak bunların uygulanması kolay değil. Bu sorun o kadar dikkat çekti ki, ilk etapta korkuya neden olan OpenAI, politikalarını buna izin verecek şekilde değiştirdi. kullanıcıların vazgeçmesi eğitim setine dahil edilmesi ve ödeme yapacak kuruluşlar tüm kullanıcıları adına kapsam dışında kalmayı tercih edebilirler.

Bu sorun (kullanıcıların ait olmadığı bir uygulamaya yanlış bilgi yapıştırması) şuna benzer görünüyor: veri kaybı önleme (DLP) Ve bulut erişim güvenliği komisyoncusu (CASB) çözmek için çözümler üretildi. Kuruluşların geleneksel veriler için oluşturulan bu araçları yapay zeka içindeki verileri korumak için kullanıp kullanamayacağı henüz keşfedilmeyi bekliyor.

3. Yapay Zeka Modeli Kontrolü

Hızı artıran SQL enjeksiyonunu düşünün. uygulama güvenliği testi endüstri. Veriler talimat olarak çevrildiğinde ortaya çıkar ve uygulama verilerini manipüle eden kişilerin (yani kullanıcıların) uygulama talimatını (yani davranışını) manipüle etmesine olanak tanır. Yıllardır Web uygulamalarına zarar veren ciddi sorunlarla birlikte, uygulama geliştirme çerçeveleri bu zorluğun üstesinden geldi ve artık kullanıcı girdilerini güvenli bir şekilde yönetiyor. Modern bir çerçeve kullanıyorsanız ve onun asfalt yolundan geçiyorsanız, SQL enjeksiyonu tüm pratik amaçlar açısından çözülmüş bir sorundur.

Bir mühendisin bakış açısına göre yapay zekanın tuhaf yönlerinden biri, talimatları ve verileri karıştırmasıdır. Yapay zekaya metinle ne yapmasını istediğinizi söylersiniz ve ardından kullanıcılarınızın aslında aynı girdiye biraz daha metin eklemesine izin verirsiniz. Tahmin edebileceğiniz gibi bu, kullanıcıların talimatları değiştirebilmesiyle sonuçlanır. Akıllı istemleri kullanmak, uygulama oluşturucu bunu gerçekten engellemeye çalışsa bile bunu yapmanıza olanak tanır; bu, bugün hepimizin bildiği bir sorundur. hızlı enjeksiyon.

Yapay zeka uygulama geliştiricileri için bu kontrol edilemeyen modelleri kontrol etmeye çalışmak gerçek bir zorluktur. Bu bir güvenlik kaygısıdır ancak aynı zamanda öngörülebilirlik ve kullanılabilirlik sorunudur.

4. Güvenli Yapay Zeka Uygulamaları Oluşturma

Yapay zekanın kullanıcı adına hareket etmesine ve bu eylemleri birbiri ardına zincirlemesine izin verdiğinizde, keşfedilmemiş bölgelere ulaşmış olursunuz. Yapay zekanın amacına ulaşmak için yapması gereken şeyleri yapıp yapmadığını gerçekten söyleyebilir misiniz? Yapay zekanın yapması gerekebilecek her şeyi düşünüp listeleyebilseydiniz, muhtemelen ilk etapta yapay zekaya ihtiyacınız olmazdı.

Daha da önemlisi, bu sorunla ilgili yapay zeka dünyayla nasıl etkileşime giriyorve bu, yapay zekayla ilgili olduğu kadar dünyayla da ilgili. Çoğu Copilot uygulaması, kullanıcıların kimliğine bürünerek mevcut güvenlik kontrollerini devralmaktan gurur duyar, ancak kullanıcı güvenlik kontrolleri gerçekten bu kadar katı mı? Hassas verileri meraklı bir yapay zekadan korumak için kullanıcı tarafından atanan ve yönetilen izinlere gerçekten güvenebilir miyiz?

Bitirici Bir Düşünce

Yapay zekanın veya buna bağlı olarak yapay zeka güvenliğinin nereye varacağı hakkında herhangi bir şey söylemeye çalışmak, geleceği tahmin etmeye çalışmaktır. Danimarka atasözünün dediği gibi, özellikle gelecekle ilgili tahminlerde bulunmak zordur. Yapay zeka gelişimi ve kullanımı gelişmeye devam ettikçe güvenlik ortamı da onlarla birlikte gelişmeye mahkumdur.





Source link