ABD şirketleri güvenli, şeffaf yapay zeka geliştirme taahhüdü veriyor


Yedi ABD yapay zeka (AI) devi – Amazon, Anthropic, Google, Inflection, Meta, Microsoft ve OpenAI – “AI teknolojisinin güvenli, güvenli ve şeffaf gelişimine doğru ilerlemeye yardımcı olmayı” alenen taahhüt etti.

güvenli AI

Taahhütler

“Gelişmekte olan bu teknolojileri geliştiren şirketlerin, ürünlerinin güvenli olmasını sağlama sorumluluğu vardır. Biden-Harris Yönetimi, AI’nın potansiyelinden en iyi şekilde yararlanmak için bu sektörü, inovasyonun Amerikalıların hakları ve güvenliği pahasına olmamasını sağlamak için en yüksek standartları sürdürmeye teşvik ediyor.”

İdare, AI alanındaki şirketlere yasal yükümlülükler getirecek bir icra emri üzerinde çalışırken, bu yedi şirket aşağıdakileri taahhüt etmektedir:

  • Lansmandan önce AI sistemlerinin güvenliğini test edin (test hem şirket içinde hem de bağımsız uzmanlar tarafından yapılacaktır)
  • AI risk yönetimi en iyi uygulamaları hakkında bilgi paylaşın kendi aralarında ve hükümetle
  • Tescilli ve yayınlanmamış model ağırlıklarını koruyun – “bir yapay zeka sisteminin en önemli parçası” – siber güvenlik ve içeriden gelen tehdit önlemlerine yatırım yaparak
  • Üçüncü tarafların güvenlik açıklarını tespit etmesini ve bildirmesini kolaylaştırın AI sistemlerinde
  • Kullanıcıların, içeriğin (video, ses) yapay zeka tarafından ne zaman oluşturulduğunu kesin olarak bilmesini sağlayın (örneğin filigranlı)
  • AI sistemlerinin yeteneklerini, sınırlamalarını ve hem uygun hem de uygunsuz kullanımlarını ifşa edin (ve taşıdıkları güvenlik ve toplumsal riskler)
  • AI kullanımının potansiyel toplumsal risklerini (önyargı, ayrımcılık) araştırmaya devam edin ve gizliliği koruyun
  • Toplumun en önemli zorluklarının üstesinden gelmek için gelişmiş yapay zeka sistemleri oluşturun (örneğin, kanseri önleme, iklim değişikliği, siber tehditlerle mücadele)

AI’nın ortaya koyduğu riskleri ele almak

Sekiz taahhüdün ana hatlarını çizen resmi belgede, “yalnızca genel olarak mevcut endüstri sınırından daha güçlü olan üretken modeller için geçerli olduklarını söylüyorlar (örneğin, GPT-4, Claude 2, PaLM 2, Titan ve görüntü oluşturma durumunda DALL-E 2 dahil olmak üzere şu anda piyasaya sürülen tüm modellerden genel olarak daha güçlü olan modeller).”

Bu hüküm, şu anda mevcut olan AI sistemlerinin şu anda zarar verdiğine işaret eden, kar amacı gütmeyen araştırma ve savunuculuk kuruluşu AlgorithmWatch’a uymuyor. “Şirketler bu önlemleri uygulamanın iyi bir fikir olduğu konusunda hemfikirse, bunları şu anda küresel olarak sattıkları ürünlere uygulamamalılar mı? Elbette yapmalılar!” Onlar söz konusu.

Cado Security CEO’su James Campbell, “İnternet kaynaklı bilgilerin doğrulanması konusunda halkın bilinçlendirilmesi bir zorunluluktur” diyor.

“Özellikle LLM’lerle ilgili bir sorun, bilgileri genellikle yanlış olan (“halüsinasyonlar” olarak tanımlanan) yetkili bir şekilde iletmeleridir. Bu, bu LLM’lerin kullanıcılarının, yanıltıldıkları durumlarda bile bir konu alanı hakkında derinlemesine bilgiye sahip olduklarına inanmalarına neden olur. LLM kullanıcılarının, yönlendirmelerinin sonuçlarına büyük dozda şüphecilikle ve alternatif bir kaynaktan ek doğrulamayla yaklaşmaları gerekir. Kullanıcılara yönelik hükümet rehberliği, sonuçlar daha güvenilir olana kadar bunu vurgulamalıdır.”

“Sürümde atıfta bulunulan ‘test’, muhtemelen hem AI geliştiricilerinin iç güvenliği hem de teknolojilerin kendilerinin daha geniş toplumsal etkisi etrafındadır” diye ekledi.

“Yapay zeka teknolojilerinin kullanımından, özellikle ChatGPT gibi Büyük Dil Modelleri (LLM’ler) çevresinden kaynaklanan birçok gizlilik sorunu potansiyeli var. OpenAI, ChatGPT’de yanlışlıkla diğer kullanıcıların konuşma başlıklarına erişim sağlayan bir güvenlik açığını açıkladı. Açıkçası bunun, bu LLM’lerin kullanıcıları için ciddi veri güvenliği etkileri vardır. Daha genel olarak, şirketlerden yapay zeka özellikli teknolojileri piyasaya sürmeden önce toplumsal etki perspektifinden bir risk değerlendirmesi yapmaları istenebilir.”

Ancak Abnormal Security CISO’su Mike Britton’a göre, nihayet yasalaştığında, en önemli düzenleme yapay zekanın nasıl çalıştığına ilişkin etik, şeffaflık ve güvenceler etrafında olacak.

Help Net Security’ye “Herhangi bir iyi AI çözümü, aynı zamanda bir insanın AI tarafından gerçekleştirilen herhangi bir eylemi gerçekleştirme (ve potansiyel olarak geri alma) söz konusu olduğunda nihai kararı vermesini sağlamalıdır” dedi.

Güvenli, güvenilir ve etik AI sistemleri üzerinde çalışmak

Yönetim daha önce, ABD vatandaşlarını yapay zeka sistemlerinin oluşturabileceği önyargı ve ayrımcılık gibi risklerden korumayı amaçlayan bir Yapay Zeka Haklar Bildirgesi için bir Taslak yayınlamıştı.

Bu tür sistemlerin tasarımına, kullanımına ve dağıtımına rehberlik eden beş ilke belirlediler:

  • Güvenli olmayan veya etkisiz sistemlerden koruma
  • Algoritmik ayrımcılığa karşı koruma
  • Veri gizliliği koruması
  • Kullanılan sistemler hakkında uyarı ve açıklama
  • Otomatik sistemlere bir insan alternatifinin mevcudiyeti

Halkı algoritmik ayrımcılıktan korumak için Başkan Biden, federal kurumları AI gibi yeni teknolojilerin geliştirilmesi ve uygulanmasındaki önyargılarla mücadele etmeye teşvik eden bir Başkanlık Emri imzaladı.

AI araştırma ve geliştirmeyi desteklemek amacıyla Yönetim, yedi yeni Ulusal AI Araştırma Enstitüsü (mevcut 18’e ek olarak) başlatmak için Ulusal Bilim Vakfı’na 140 milyon $ yatırım yaptı.





Source link