ABD Milletvekilleri Yapay Zekanın ‘Güvenlik Frenine’ İhtiyacı Olduğu Konusunda Uyardı


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme, Standartlar, Düzenlemeler ve Uyumluluk

Yasama ‘Taslağı’ Yapay Zeka için Düzenleyici Yol Haritası Sağlıyor

Marianne Kolbasuk McGee (SağlıkBilgi Güvenliği) •
12 Eylül 2023

ABD Milletvekilleri Yapay Zekanın 'Güvenlik Frenine' İhtiyacı Olduğu Konusunda Uyardı
Resim: Shutterstock

İnsan denetimi olmayan yapay zekanın felaket riski taşıyacağı konusunda iki teknoloji yöneticisi, bu yılın sonlarında düzenleyici mevzuatı yürürlüğe koymayı planlayan ABD senatörlerinden oluşan bir panel önünde uyardı.

Ayrıca bakınız: Web Semineri | SASE Dağıtımınız Neden ZTNA 2.0 ile Başlamalı?

Teknoloji şirketlerinin yapay zekayı ürünlere dahil etme hamlesi, istenmeyen sonuçları tetikleyebilecek düzenlenmemiş makine zekası uygulamaları konusunda endişelere yol açıyor.

Şirketi, Bing arama motoru da dahil olmak üzere bir dizi ürününe yapay zekayı yerleştirmek için ChatGPT yapımcısı OpenAI ile ortaklık kuran Microsoft Başkanı Brad Smith, senatörlere yapay zekanın endişesiz bir şekilde konuşlandırılmadan önce bir “güvenlik frenine” ihtiyacı olduğunu söyledi.

“Belki de birçok insanın endişe duyduğu tehditlerin bilim kurgunun bir parçası olarak kalmasını ve yeni bir gerçeklik haline gelmemesini sağlamak için yapmamız gereken en önemli şeylerden biri bu. Yapay zekayı insanların kontrolü altında tutalım. Smith, Senato Yargı alt komitesinde yapay zeka mevzuatına ilişkin mahremiyet duruşmasında şunları söyledi: “Gerektiğinde elektrik akışını durdurmak için bu ülkedeki her binada ve evde bir devre kesiciye sahip olduğumuz gibi, bizim de bir güvenlik frenine ihtiyacımız var. ,” ekledi.

Çip tasarımcısı Nvidia’nın baş bilim adamı ve kıdemli başkan yardımcısı William Dally de benzer uyarılarda bulundu. “Her türlü yapay zeka üzerinde kontrol sahibi olduğumuzdan emin olmanın yolu, insanı döngünün içinde tutmaktır. Yapay zeka çıktıları arasında bir insan istersiniz. İnsanları tutmak, uçakların gökten düşmesini önlemek için kritik bir döngüdür” dedi.

Senatör Richard Blumenthal, D-Conn. ve Josh Hawley, R-Mo. – alt komitenin sırasıyla başkanı ve kıdemli üyesi – daha önce Blumenthal’in “gerçek uygulanabilir AI korumaları için kapsamlı, yasal bir plan” olarak adlandırdığı şeyi yayınladı.

İki partili yapay zeka çerçevesi, GPT-4 ve üzeri gelişmişlik düzeyindeki yapay zeka modelleri veya yüz tanıma gibi yüksek riskli uygulamalar için kullanılan modeller için bir lisans rejimi oluşturulmasını öneriyor. Senatörler ayrıca, modellerinin mahremiyeti ihlal etmesi, sivil hakları ihlal etmesi veya başka şekilde fark edilebilir zararlara neden olması durumunda şirketlerin yasal sorumluluk üstlenmesi gerektiğini söylüyor.

Duruşma sırasında Blumenthal, tanıkları sektöre bakış açılarını paylaşmaya çağırdı ve daha fazla yasama duruşması düzenleme sözü verdi. “Eleştirilerden rahatsız olmayacağız” dedi ve Kongre’nin yapay zeka mevzuatı konusunda “bu yılın sonuna doğru” ilerlemesi gerektiğini de sözlerine ekledi.

Biden yönetimi, teknoloji şirketlerinin imzacılarını yapay zeka modeli siber güvenliğine yatırım yapmak, kötüye kullanıma veya ulusal güvenlik endişelerine karşı kırmızı ekip oluşturmak gibi bir dizi gönüllü politika taahhüdüne dahil etmek için aylardır süren bir kampanya yürütüyor olsa da, ABD kapsamlı yapay zeka düzenlemesini yürürlüğe koymaktan çok uzak. ve üçüncü taraflardan gelen güvenlik açığı raporlarını kabul etmek. Beyaz Saray taahhüdünü imzalayan şirketler, yapay zeka tarafından geliştirilen ve organik içerikten ayırt edilemeyen görsel ve işitsel materyale filigran koyacaklarını ve kendi sistemleri içinde oluşturulan içeriği tanımlamak için araçlar geliştireceklerini söylüyorlar (bkz: IBM, Nvidia ve Diğerleri ‘Güvenilir’ Yapay Zeka Geliştirmeyi Kararlaştırdı).

Pek çok teknoloji yöneticisi, ticari blok ilk olarak Avrupa Komisyonu tarafından Nisan 2021’de önerilen bir düzenlemeyi tamamlarken, Avrupa Birliği’nin yapay zeka dağıtımına yönelik Batı standartlarını etkili bir şekilde belirlemeye hazır olduğundan özel olarak endişeleniyor. Nihai müzakerelerde tartışılan konular arasında, üretken ChatGPT gibi yapay zeka modelleri, test ve şeffaflık açısından düzenlemelere tabi olmalıdır.

Boston Üniversitesi’nden gizlilik konularında uzman hukuk profesörü Woodrow Hartzog, komiteye her türlü mevzuatın sağlam olması gerektiğini söyledi. “Yarım tedbirler bizi korumaz. Verilerimizi istismar edenlere karşı bir kontrol listesi işe yaramaz” dedi.

Nvidia’dan Dally, yapay zeka destekli hizmetlerin, özellikle “yüksek riskli” sektörlerdeki lisans gerekliliklerine tabi olması gerektiğini, daha az zarar riski olan uygulamaların ise daha az katı lisanslama veya düzenleme gerektirebileceğini ifade etti.





Source link