Hackerone, bağımsız araştırmacılar için daha güçlü yasal korumaları savunmak için güvenlik ve AI topluluklarıyla ortaklık kurdu. Son zamanlarda Hackerone, üçüncü taraf AI değerlendiricileri için yasal güvenceler ihtiyacını tartışmak ve mevcut yasal çerçevelerdeki boşlukları ele almak için önde gelen kurumlar tarafından düzenlenen bir atölyeye katıldı. Güçlü değişim zorlamasına rağmen, kütüphanecinin kararı biraz netlik sağladı, ancak sonuçta AI güvenlik araştırması için talep edilen tam yasal korumayı vermede yetersiz kaldı.
DMCA nedir ve neden önemlidir?
DMCA Bölüm 1201, telif hakkıyla korunan eserleri korumak için kullanılan teknolojik koruma önlemlerini (TPM) atlatmayı yasadışı hale getirir. Esasen, yazılımın güvenlik özellikleri varsa, araştırma amaçlı bile onları kırmak veya başka bir şekilde atlamak yasalara aykırıdır.
Her üç yılda bir ABD Telif Hakkı Ofisi, bu kısıtlamaya istisnalar için dilekçeleri dikkate alır. 2015 yılında, güvenlik topluluğu iyi niyetli güvenlik araştırmaları için bir istisna aldı ve bir istisna aldı. Bu yıl, Hackerone bu istisnayı genişletmeyi savundu.
Güvenlik araştırmalarının yasalar uyarınca yasal korumaları olsa da, aynı korumaların AI araştırmacılarına uzadığı açık değildir. AI araştırması veya kırmızı ekip, AI sistemlerini güvenlik, doğruluk, ayrımcılık, ihlal ve diğer potansiyel olarak zararlı çıktılar dahil olmak üzere güvenlikten daha fazlası için değerlendirir. Açık yasal korumaların olmaması, dijital ekosistemin uzun vadeli esnekliği için çok önemli olan bağımsız AI testini caydırabilecek ürpertici bir etki yaratır-daha da bağımsız güvenlik araştırmaları, zararlılıklara neden olmadan önce güvenlik açıklarını belirleyerek kuruluşları korur.
AI platformları, sistemlerini korumak için, güvenlik açıkları veya algoritmik kusurlar bulmaya çalışan araştırmacıları engelleyebilir veya yasaklayabilir. Çalışmalarına devam etmek için araştırmacılar bazen bu erişim kısıtlamalarını atlamak için yeni hesaplar oluşturmak veya proxy sunucuları kullanmak zorunda kalırlar. Bu sünnet genellikle istenmeyen davranışları tanımlamak ve AI sistemlerini iyileştirmek için gerekli olsa da, DMCA 1201 istisnaları çevresinde netlik yokluğunda, potansiyel yasal riskle birlikte gelir.
Hackerone, telif hakkı ofisinden DMCA Sec. 1201. Kongre Kütüphanecisi kararını 28 Ekim 2024’te yayınlamadan önce birkaç ay ve birçok yorum turu aldı.
Karar neydi?
ABD telif hakkı ofisi, araştırmacıların AI sistemlerinin güvenilirliğini test etmek ve geliştirmek için TPM’leri atlatmalarını sağlayacak DMCA’ya önerilen bir muafiyeti değerlendirdi. Bu muafiyet, bağımsız araştırmacıların, yasal işlem tehdidi olmadan önyargılar, zararlı çıktılar ve adalet ve hesap verebilirlikle ilgili diğer konular için AI modellerini araştırmalarını sağlayacaktır.
Ancak, Kongre Kütüphanecisi sonuçta önerilen bu muafiyeti vermeyi reddetti. Karar iki tespite dayanıyordu:
- Yetersiz kanıt: Bölüm 1201’in araştırmacıların AI modellerinde gerekli kırmızı ekip ve test faaliyetlerini yürütmelerini önemli ölçüde caydırdığını kanıtlamak için yeterli kanıt yoktu. Birçok araştırmacı, bu tür araştırmaların yürütülmesinin yasal riskleri hakkında endişeler yaratmış olsa da, telif hakkı ofisi mevcut TPM atlatma korumalarının çerçevesinin çalışmalarına önemli bir engel oluşturmadığını bulmuştur.
- TPM’lerin Circumventions: Araştırmacılar tarafından kullanılan tekniklerin çoğu aslında TPMS’nin 1201. bölümünün yasaklanması amaçlandığı şekilde atlatmayı içermemektedir. Karara göre, söz konusu araştırma yöntemlerinin çoğu teknik olarak erişim kontrollerini veya güvenlik önlemlerini atlamayı içermez, bu da DMCA’nın anti-circumention hükümlerine girmedikleri anlamına gelir.
Yapay zeka araştırması için çıkarımlar
AI güvenilirlik araştırması için tam muafiyetin reddedilmesi bir aksilik olmakla birlikte, belirli alanlarda biraz netlik sağlar. Karar, yasak sonrası hesap oluşturma, oran sınırlama, jailbreak istemleri ve hızlı enjeksiyon gibi birçok yaygın test yönteminin Bölüm 1201’i ihlal etmediğini açıkça belirtmektedir. Bu açıklamanın araştırmacılar için bir kazanç olduğunu, çünkü belirsizliği azaltmaya yardımcı olduğu için Bu teknikler ve bu kritik yapay zeka araştırmalarını sürdürmek için daha yasal güven sağlar.
Bununla birlikte, karar nihayetinde AI araştırmacılarını, özellikle kusurların teknolojiye derinden gömüldüğü durumlarda, AI sistemlerini bağımsız olarak tam olarak test etmek için bir yetersizlik veya isteksizliğe neden olabilecek AI araştırmacılarını bırakır.
AI toplumun tüm yönlerini geliştirmeye ve etkilemeye devam ettikçe, yasal çerçeveler bu teknolojik gelişmelerle birlikte gelişmelidir. Sağlanan ek netlik hoş karşılanmaktadır, ancak iyi niyet AI araştırmacıları için daha güçlü, daha kapsamlı yasal korumaları güvence altına almak için hala yapılacak çok şey var.