Yapay Zeka ve Makine Öğrenimi , Coğrafi Odak: Birleşik Krallık , Jeo-Spesifik
Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü Yüksek Lisans Kurumlarının Acemi Bilgisayar Korsanlarına Gelişmiş Yetenekler Veremeyeceğini Söyledi
Akşaya Asokan (asokan_akshaya) •
9 Şubat 2024
İngiliz hükümetinin değerlendirmesi, büyük dil modellerinin acemi bilgisayar korsanlarının yeteneklerini artırabileceğini, ancak şu ana kadar tehdit aktörlerinin salata günlerini geçirdikten sonra pek işe yaramadığı sonucuna varıyor.
Ayrıca bakınız: İsteğe Bağlı Panel | Operasyonel Mükemmelliği Güvenceye Alma: CISO’ları Engelleme 5 En Önemli Güvenlik Sorunu
Yüksek Lisans modellerinin oluşturduğu riski değerlendiren ön raporunda, yeni görevlendirilen Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü’nden araştırmacılar, güvenlik açığı keşfi ve veri sızdırma konusunda yapay zeka geliştiricileriyle birlikte LLM modeli yeteneklerini test etti.
Model ayrıntılarını açıklamayan rapor, yapay zeka sistemlerini insan tehdidi analistlerinin sistemleriyle karşılaştırdı. Analizleri, modellerin belirli sayıda görevi yerine getiremediğini buldu.
Cuma günü yayınlanan AISI raporunda, “Sonuç, halihazırda konuşlandırılmış LLM’lerin kullanımının bir aceminin kapasitesini artırabileceği ve görevleri normalden daha hızlı tamamlamasına olanak tanıyabileceği sınırlı sayıda görev olabileceği yönündeydi.” dedi. .
Araştırmacılar, LLM modellerini simüle edilmiş bir dezenformasyon kampanyası için sentetik sosyal medya kişilikleri yaratmaya teşvik edebilir. Yapay zeka testi ve değerlendirmesi henüz başlangıç aşamasında olduğundan bulgularının “Yapay Zeka sistem güvenliğine ilişkin kapsamlı değerlendirmeler” olmadığını söylediler.
Britanya hükümeti, Kasım ayında düzenlediği Yapay Zeka Güvenliği Zirvesi’nde Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü’nün kurulduğunu duyurdu. Enstitü, gelişmiş yapay zeka gelişiminin güvenli bir şekilde sağlanmasına ve teknolojinin Birleşik Krallık halkı için oluşturduğu risklerin en aza indirilmesine odaklanıyor (bkz:
Enstitü, raporu, İngiliz hükümetinin yapay zeka hakkında bağlayıcı bir düzenleme yayınlamak yerine finans, telekom, veri gizliliği ve rekabet düzenleyicilerine mevcut otoriteleri kullanma görevi verme yönündeki “inovasyon yanlısı” duruşunu vurgulayan güncellenmiş yapay zeka kılavuzunu yayınlamasından günler sonra yayınladı. Yapay zekanın uygulanmasını denetlemek (bkz: Teknoloji Bakanı, Birleşik Krallık’ın Yapay Zekayı Mevzuat Konusunda Acele Etmeyeceğini Söyledi).
Model değerlendirmesi ve testi, Yapay Zeka Güvenlik Zirvesi’nde duyurulan ön girişimlerden biriydi; bu sırada Birleşik Krallık hükümeti, önde gelen yapay zeka geliştiricilerinden, modellerini yayınlanmadan önce enstitüde test etmek için gönüllü taahhütler aldı. Girişimin imzacıları arasında Google, Meta, DeepMind ve Microsoft yer alıyor.
Bilim, İnovasyon ve Teknoloji Bakanlığı sözcüsü Bilgi Güvenliği Medya Grubu’na şunları söyledi: “Bu test, zirvedeki tartışmalarımız doğrultusunda, kötüye kullanımdan toplumsal etkilere kadar en fazla zarara neden olabileceğine inandığımız risklere odaklanıyor.”
Girişim kapsamında AISI, otomatik yapay zeka sistemlerinin yeteneklerini değerlendirmek, tehdit aktörlerinin müdahaleci siber yeteneklerini ayırt etmek için kırmızı ekip oluşturmak ve otonom sistemler gibi gelişmiş yapay zekanın insanlara karşı ne kadar performans gösterdiğini değerlendirmek için yapay zeka model geliştiricileriyle işbirliği yapacak.
DSIT sözcüsü, “Risklerin tespit edildiği durumlarda, bulgularımızı şirketlerle paylaşacağız ve onlardan, lansman öncesinde de dahil olmak üzere harekete geçmelerini bekleyeceğiz” dedi.
Cuma günkü ön raporda AISI, güvenlik açığı değerlendirme şirketi Trail of Bits, İngiltere merkezli Fakülte.AI ve yapay zeka güvenlik kuruluşu Apollo Research ile işbirliği yaptı.
Bir Fakülte.AI sözcüsü, AISI ile yaptıkları çalışmanın, Birleşik Krallık hükümetinin “LLM’lerin kötü aktörlerin zarar vermesini nasıl kolaylaştırabileceğini anlamasına” yardımcı olmak için kırmızı takım sınır modellerine odaklandığını söyledi.
Bilgisayar korsanlarının LLM modellerini tehlikeye atma yeteneklerini değerlendiren analizleri, test edilen algoritmaların, yüksek düzeyde karmaşıklık gerektirmeyen yönlendirme ve ince ayar teknikleri yoluyla jailbreak’e karşı savunmasız kaldığını ortaya çıkardı.
Otonom yapay zeka sistemlerini de değerlendiren raporda, modellerin araştırmacıların “gönüllü bir üniversite öğrencisinin giriş bilgilerini çalmak” için verdiği talimata göre hareket edebileceği ortaya çıktı. Burada yapay zeka, topladığı bilgilere dayanarak bir kimlik avı kampanyası yürütmeye başladı. Ancak sistem, kimlik avı e-postasını göndermek için gereken e-posta kimliğini oluşturamadığı için kampanya sekteye uğradı.
Başka bir durumda, araştırmacılar, araştırmacılar tarafından yasaklanan bir görevi gerçekleştirmek için otonom bir yapay zeka sistemini “içeriden gelen bir ihbar üzerine hareket etmesi” için başarıyla kandırdılar. Bu, yapay zekanın kontrolü kaybetme riskini ortaya çıkardı.