Yapay zekada açık kaynak güvenliği – Help Net Security


Yeni yapay zeka ürünleri, daha önceki teknoloji devrimlerinde gördüğümüzden daha hızlı bir şekilde piyasaya çıkıyor. Şirketlerin yapay zeka yazılım modellerine ücretsiz erişim ve açık kaynak kullanma hakkı, onlara bir yapay zeka ürününün prototipini her zamankinden daha ucuza ve hipersonik hızda pazarlama olanağı tanıdı.

Yapay zeka açık kaynak güvenliği

Sohbet robotları ve esrarengiz düşük kaliteli görüntülerle yalnızca bir yıl önce başladık; Yapay zeka artık sağlık, sigorta, ulaşım, insan kaynakları ve BT operasyonları gibi yeni ve daha hassas sektörlere hızla entegre ediliyor.

Bu yapay zeka şirketlerinin çoğu zaman görmezden geldiği ve hatta alıcılardan ve kullanıcılardan gizlediği şey, pazara çıkan yeni ürünlerin hızının güvenlik konusundaki özen eksikliğinden kaynaklandığıdır. Temeldeki açık kaynak projelerinin çoğu, yapay zeka amacıyla incelenmemiştir. Şirketlerin yapay zekada açık kaynaktan yararlanarak elde ettiği devasa mali faydaların karşılığında, topluluk çabalarına ve açık kaynak bileşenlerinin temel güvenliğine katkıda bulunmak şirketlerin çıkarınadır.

Yapay zeka ürünlerine yönelik güvenlik tehditleri

2024 AI Index raporuna göre, 2021 ile 2022 arasında verilen AI patenti sayısı 62.700 arttı; bu sadece verilen patentlerden ibaret. Şirketler, rakiplerini geride bırakmak ve şimdi en iyi yapay zeka ürünlerini vaat edenleri bekleyen büyük sözleşmeleri kazanmak için ürünler hızla piyasaya sürülürken, şirketler zirveye doğru çılgın bir yarışa girişiyor.

Bu hızda yeni yapay zeka ürünlerini prototiplemenin tek yolu açık kaynak kullanmaktır. Açık kaynaklı yazılımın ücretsiz lisans niteliğinden yararlanarak şirketler, ürünlerini geliştirirken para ve zamandan tasarruf ederken, ortak olarak incelenen ve kullanılan kodun algılanan güvenliğine güvenerek kendilerini sakinleştirebilirler.

Bununla birlikte, yapay zeka endüstrisi, yapay zekaya özgü güvenlik çalışmasından yararlanan kod olmadan hassas verileri işlemek için kapsamlı açık kaynaklı projeler kullanmanın artan riskini göz ardı ettiğinden, kamuoyunun kaygısı da artıyor ve haklı olarak da öyle.

Birleşik Krallık Bilim, Yenilik ve Teknoloji Departmanı için Yapay Zekaya Yönelik Siber Güvenlik Riskleri raporu için gerçekleştirilen röportajlarda, çeşitli sektörlerden yöneticiler, yazılım geliştirmelerinde hiçbir özel yapay zeka veri bütünlüğü aracının kullanılmadığını belirtti. Ayrıca bazı istisnai durumlarda mevcut veri sızıntısını önleme sistemleri dışında yapay zeka modelleri üzerinde herhangi bir dahili güvenlik protokolü uygulamazlar. Sektör, yapay zeka uygulamaları için henüz incelenmemiş açık kaynaklı projelerin kullanılmasının artan risklerine yanıt vermekte başarısız oluyor.

Yapay zeka geliştirmedeki bu açık kaynak kitaplıkların çoğu, üretken yapay zeka patlamasından önemli ölçüde öncesine dayanıyor. Anlaşılır bir şekilde, geliştiricileri başlangıçta projelerinin yapay zeka ürünlerinde nasıl kullanılabileceğini düşünmemişti. Bu sorun artık, güvenli olduğu varsayılan güvenilmeyen girdileri kabul eden bileşenler veya projenin yapay zeka için kullanılmasından önce asla mümkün olduğu düşünülmeyen hata durumlarıyla karşılaşan hata işleme sistemleri olarak ortaya çıkıyor. Ek olarak, bir NIST raporu, AI yazılımının kendisini kötüye kullanabilecek veya yanlış yönlendirebilecek dört farklı saldırı türünü listeleyerek, yaklaşan AI’nın yanlış yönlendirilme tehdidinden bahsediyor.

Bu projelerin özellikle yapay zeka ile birlikte kullanım için incelenmemesinin veya test edilmemesinin bir sonucu, projenin saldırı yüzeyinin değişmesidir ve bu da yapay zeka için açık kaynaklı projeler kullanırken dikkate almanız gereken tehditleri değiştirir.

Bu projelerin güvenliğini daha da tehdit eden şey, yapay zekaya özgü ve yapay zeka ile ilgili tüm projelerde dikkate alınması gereken yeni hata sınıflarıdır. Yapay zekanın birçok uygulaması olduğundan ve özel şirketler modelleri için farklı güvenlik kurallarına uyduklarından, bu şirketler arasında bu yeni hata sınıflarının ne olduğu veya nerede bulunabileceği konusunda evrensel veya ortak bir anlayış yoktur.

Yapay zekanın temel taşları olan açık kaynaklı projelerin güvenliğini sağlama

Bu ürünler özel yazılımlardır ve kodu tamamen incelemenin tek yolu, onun dayandığı açık kaynaklı yazılımları incelemek olacaktır. Daha azı, yazılımın güvenlik durumunun yalnızca bir kısmına ilişkin sınırlı bir fikir sağlar. Yapay zeka uygulamalarındaki yeni tehditleri anlamak için kapsamlı araştırmalar devam ederken OWASP, büyük dil modeli uygulama güvenlik açıkları konusunda eğitim vermek için bir uzantı oluşturdu.

Açık kaynak yapay zeka güvenliğinde etkili bir değişiklik yaratmak için, açık kaynak projeleri kullanan özel firmaların, özellikle projenin risk profilinin yapay zekanın gelişiyle değiştiği durumlarda, bu yazılımın güvenliğini desteklemek için zaman ve kaynak yatırımı yapması gerekir.

Bağımsız geliştiricilere açık kaynak üzerinde çalışmaları için zaman ayırarak, bakımcılara projedeki bakım saatlerini iyileştirmeleri için sponsor olarak veya güvenlik denetimlerine sponsor olarak, yapay zekanın temel taşları olan açık kaynak kirişlerin güvenliğini artırabiliriz. Yapay zeka şirketleri, projeleri doğrudan ve hızlı bir şekilde etkileyen güvenlik çalışması yöntemlerini finanse etmek için mevcut açık kaynak ekosistemiyle birlikte çalışarak yalnızca çıkarlarını etkili bir şekilde desteklemekle kalmayıp, aynı zamanda alanda kendilerine yönelik iyi niyeti de içerecek şekilde finansmanlarının etkisini artırabilir.

Güvenlik için evrensel olarak derin ve kalıcı olumlu değişiklik yapmak, hem kolaylık hem de finansal kazanç açısından sektör katılımcıları arasında işbirliğini gerektirecek ve aynı zamanda hem açık kaynak hem de özel sektördeki devlet kuruluşlarının daha fazla gözetiminin önlenmesini gerektirecektir.

Örneğin ABD Hazine Bakanlığı’nın bir raporunda araştırmacılar, finans sektöründe evrensel bir yapay zeka sözlüğü aracılığıyla yapay zeka yazılımı etrafında kapsamlı bir iletişim aracının oluşturulmasını öneriyor. Böyle bir çaba, AI yazılım davranışını açıkça ifade edebilen yatırım yapılan taraflar arasında AI hakkında daha derin konuşmalara yol açabilir.

Şirketler bunu ve daha yüksek güvenlik sağlığını elde etmek için vakıflarla veya diğer firmalarla organize olabilir ve maliyet paylaşımına dayalı güvenlik çalışmaları yapabilir. Bu ortak çaba aynı zamanda sistemik riskleri azaltmak ve genel güvenlik ortamını iyileştirmek için küresel kuruluşlarla yapay zeka güvenliği konusunda birleşik bir cephe geliştirebilir. Sektör, uyumlu ve proaktif çabalar sayesinde yapay zekada bir sonraki “log4shell” riskini azaltabilir ve birçok sektördeki kullanıcıların ve yapay zeka modellerinin hassas verilerinin açığa çıkmasına neden olabilecek milyar dolarlık bir güvenlik felaketinden kaçınabilir. Bu yenilenebilir ve yaygın değişim, açık kaynak güvenliğine yatırım yapmakla başlıyor.

Çözüm

Şirketler, açık kaynak teknolojilerinden yararlanarak yapay zeka geliştirmenin zaman alıcı ve maliyetli engellerinden kaçındıkça, önemli güvenlik kontrollerinden vazgeçerek pazara sayısız güvenlik açığı sunuyorlar.

Bu, şirketlerin büyük felaketleri derhal önlemek için düzeltmeleri gereken yakın bir tehdittir. Sürdürülebilir ve etkili bir etki yaratmak için finansman gerekiyor; bu, sektöre milyarlarca dolarlık yatırımla yapay zeka endüstrisinin zaten sahip olduğunu gösterdiği bir şey. Bazı vakıflar ve diğer kuruluşlar, şirketlerin kullandıkları projelerde daha yüksek güvenlik düzeyi elde etmek için güvenlik çabalarını maliyet paylaşımına ayırmalarına zaten izin veriyor.

Bu ortak çaba aynı zamanda sistemik riskleri azaltmak için küresel kuruluşlarla yapay zeka güvenliği konusunda birleşik bir cephe geliştirebilir ve bu kuruluşların istismar edilen yapay zeka açıklarını düzeltmek için harcanan maliyetlerden milyonlarca ve potansiyel olarak milyarlarca dolar tasarruf etmelerini sağlayabilir. Açık kaynak altyapınızın güvenliğine yatırım yapın ve bir sonraki milyar dolarlık güvenlik olayını önleyin.



Source link