Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme, Standartlar, Düzenlemeler ve Uyumluluk
Hükümetin Çift Kullanımlı Yapay Zeka Modellerinin Risk Değerlendirmesine Öncelik Vermesi Gerekiyor
Rashmi Ramesh (raşmiramesh_) •
31 Temmuz 2024
ABD hükümeti, yapay zeka temel modellerine sınırsız erişime ihtiyatlı bir onay vererek, kullanıcıların riskleri aktif olarak izlemeye hazır olmaları gerektiği konusunda uyardı.
Ayrıca bakınız: Makine Öğrenimi Sonuçlarına Daha Hızlı Ulaşın
Ulusal Telekomünikasyon ve Bilgi İdaresi Salı günü yayınladığı bir raporda açık ağırlık modellerinin üretken yapay zekayı küçük şirketler, araştırmacılar, kâr amacı gütmeyen kuruluşlar ve bireysel geliştiriciler için erişilebilir hale getirebileceğini söyledi. Açık modellere erişimde hiçbir kısıtlama olmamasını önerdi – en azından kısıtlamaların haklı olduğuna dair kanıt ortaya çıkana kadar.
Açık ağırlıktaki AI modelleri, geliştiricilerin uygulamaları üzerine inşa edebilecekleri kullanıma hazır kalıplardır. Açık kaynaklı modellerin aksine, kodları tamamen şeffaf değildir. NTIA Yöneticisi Alan Davidson, “En büyük ve en güçlü AI sistemlerinin açıklığı, bu devrim niteliğindeki araçlardaki rekabeti, yeniliği ve riskleri etkileyecektir” dedi. Raporda, “Bu raporun yazıldığı tarihte, mevcut kanıtlar, bu tür açık ağırlıktaki modellere yönelik kısıtlamaların haklı olduğunu veya gelecekte kısıtlamaların asla uygun olmayacağını kesin olarak belirlemek için yeterli değildir” denildi.
Diğer federal ajanslar açık modellere duyulan ihtiyaç konusunda seslerini yükselttiler. Federal Ticaret Komisyonu bunların kullanımını destekliyor. Ajans Başkanı Lina Khan yakın zamanda açık modellerin küçük oyuncuların fikirleriyle pazara katılmalarına izin verdiğini ve bu tür modellerin dahil edilmesinin kontrolü merkezden uzaklaştırabileceğini ve sağlıklı rekabeti teşvik edebileceğini söyledi.
Yine de, NTIA raporuna göre model kötüye kullanımı ulusal güvenlik, gizlilik ve medeni haklar için riskler oluşturabilir. Temel modeller yanlış bilgi yaymak, deepfake’ler oluşturmak ve siber saldırıları otomatikleştirmek için kullanılabilir – hükümetin “çift kullanımlı” teknoloji olarak adlandırdığı şeye hizmet etme potansiyellerini vurgular. Kötü aktörler ayrıca temel modelleri eğitim verilerindeki önyargıları artırmak için manipüle edebilir ve işe alım, kolluk kuvvetleri ve kredi verme gibi adaletin önemli olduğu kritik alanlarda haksız sonuçlara yol açabilir. Onların manipülasyonu, AI modeli sahibinin davranışları üzerindeki kontrolünü kaybetmesine ve gizlilik ihlallerine yol açabilecek kişisel verilerin potansiyel olarak yanlış kullanılmasına yol açabilir.
Ulus-devlet aktörleri bu teknolojiyi, otonom insansız hava araçları veya siber savaş araçları gibi gelişmiş silahlar geliştirmek için kullanabilirler; bu durumun, Rusya-Ukrayna çatışmasında hedef seçimi için “katil algoritmalar” ve “savaş robotu” orduları şeklinde halihazırda gerçekleştiği bildiriliyor.
Raporda NTIA, hükümete açık AI modellerinin riskleri ve faydaları hakkında kanıt toplamayı ve değerlendirmeyi amaçlayan bir program oluşturmasını tavsiye ediyor. Farklı AI modellerinin güvenlik yönleri hakkında araştırma yapılmasını, risk azaltma çalışmalarına destek verilmesini ve politika değişikliklerinin ne zaman gerekli olabileceğini belirlemek için “riske özgü” göstergelerin geliştirilmesini öneriyor.
Kanıt toplama, endüstriyi ikili kullanım temel modelleri için standartlar, denetimler, açıklamalar ve şeffaflık oluşturmaya teşvik etmeyi içerebilir. Süreç ayrıca bu modellerin güvenliği, emniyeti ve gelecekteki yetenekleri hakkında araştırma yürütmeyi ve desteklemeyi de içerebilir.
Kanıtların değerlendirilmesi, artan risk durumlarında izleme ve potansiyel eylem için kıstaslar ve tanımlar geliştirmeyi, modellere erişim kısıtlamaları ve diğer risk azaltma yöntemlerini de kapsayabilir.
Rapor, ABD’deki yapay zeka düzenlemesinin, Avrupa’nın yakın zamanda onayladığı Yapay Zeka Yasası’nın aksine, katı kurallardan ziyade kılavuzlardan oluştuğu bir zamanda geliyor. Biden yönetimi, Silikon Vadisi ağır toplarından güvenli ve güvenilir geliştirme vaatleri aldı. Ekim ayındaki bir yürütme emri, ulusal güvenlik, ulusal ekonomik güvenlik veya ulusal halk sağlığı için “ciddi bir risk” oluşturabilecek üretken yapay zeka temel modelleri geliştiricilerinin, modeli eğitirken hükümeti bilgilendirmelerini talep ediyor. Geliştiriciler ayrıca tüm kırmızı takım güvenlik testlerinin sonuçlarını hükümetle paylaşmalıdır.