Beyaz Saray tarafından çıkarılan “gönüllü AI taahhütleri” neden yeterince yakın değil?


Amazon, Anthropic, Google, Inflection, Meta, Microsoft ve OpenAI temsilcileri, “yapay zeka (AI) teknolojilerinin sorumlu bir şekilde geliştirilmesini ve dağıtımını sağlama” misyonuyla Başkan Biden ile bir toplantı yapmak üzere geçtiğimiz günlerde Beyaz Saray’da bir araya geldi.

AI teknolojileri taahhütleri

Zirveyi çevreleyen iklim

Beyaz Saray zirvesi, son 12 ayda ülkenin kolektif bilincini baş döndürücü bir heyecan, huşu ve korku karışımıyla saran bir endüstri için kuşkusuz hoş bir hız değişikliğiydi. Sansasyonel başlıklar, yapay zekanın potansiyel sonuçları konusunda uyarıda bulundu.

Bu misyonun hizmetinde, komite sekiz temel taahhüde karar verdi:

  • Hem şirket içinde hem de bağımsız bir üçüncü taraf uzmanlar tarafından yürütülen testlerle, piyasaya sürülmeden önce yapay zeka sistemlerinin güvenliğini test etmek için
  • Yapay zeka risk yönetimiyle ilgili bilgileri ve en iyi uygulamaları birbirleriyle ve hükümetle paylaşmak
  • Model ağırlıklarıyla ilgili hassas bilgileri korumak için tasarlanmış siber güvenliğe ve içeriden gelen tehditlere karşı önlemlere yatırım yapmak
  • Üçüncü tarafların AI sistemlerindeki güvenlik açıklarını tespit etmesini ve raporlamasını kolaylaştırmak için
  • AI sistemlerinin yeteneklerini, sınırlamalarını ve potansiyel uygulamalarını (hem yasal hem de kötü amaçlı) ve bunların toplumumuz üzerindeki etkilerini ifşa etmek
  • AI tarafından üretilen tüm içeriğin halk tarafından hem kolayca hem de kararlı bir şekilde tanımlanabilmesini sağlamak
  • AI ve çeşitli uygulamalarının (ör. yasa dışı ayrımcılık, önyargı) ortaya çıkardığı potansiyel toplumsal riskleri araştırmaya devam etmek
  • Toplumun en önemli ve acil zorluklarını (örn. iklim değişikliği, halk sağlığı, gıda kıtlığı) ele almak üzere tasarlanmış yapay zeka teknolojileri geliştirmek.

Neyi doğru yapıyor, neyi yanlış yapıyor ve neden yeterli değil?

Yapay zeka alanında bu taahhütlere karşı çıkan birini (en azından sesli olarak değil) bulmak zor olurdu ve bunun iki nedeni var. İlk olarak, etik oldukları, sağlam oldukları ve şüphesiz AI’nın toplumsal etkisini artıracakları için. Bununla birlikte, ikinci sebep, istendiği kadar çok şekilde yorumlanabilecek, yeterince belirsiz, koşulsuz ifadeler olmalarıdır.

Toplantı bunun yerine savunma sanayisine odaklanmış olsaydı, Lockheed Martin, Boeing ve Raytheon’un “gelişmiş füze sistemlerinin bilinen terör örgütlerinin eline geçmemesini sağlama” taahhüdü vermesi gibi olurdu.

Kısacası, son Beyaz Saray anlaşması hoş ama doğru yönde atılmış çok küçük bir adım. Ancak bu tür taahhütler (yasal olarak bağlayıcı olsun ya da olmasın), bu teknolojinin zarar verme potansiyelini en aza indirmeyi ve fayda sağlama potansiyelini en üst düzeye çıkarmayı umuyorsak, bir endüstri ve toplum olarak yakında ele almamız gereken AI ile ilgili bazı çok temel sorunları ele almakta başarısız oluyor. .

Geçen ay Beyaz Saray zirvesinde ele alınmayan en temel iki konu şunlar:

  • AI sistemlerinin sürekli izlenmesi, uyarlanması ve iyileştirilmesine yönelik resmi bir taahhüt
  • Tüm AI sistemlerinin kritik bir bileşeni olarak insan gözetimini zorunlu kılmaya yönelik resmi bir taahhüt

Sürekli iyileştirme durumu: Bölüm 1 – AI teknolojileri yaşayan sistemlerdir

İnsanlık tarihinin büyük bir bölümünde, bir ürün bir kez üretilip satıldığında “statik”ti. Örneğin 1975’te aldığınız Kitchen Aid mikseriniz hala aynı parça ve parçalardan oluşuyor ve aynı işlevi görüyor. Ayrıca, kek pişirirken veya pizza hamuru hazırlarken, mikseri son 50 yılı aşkın süredir kullandığınız şekilde kullanır ve tam olarak aynı sonuçları alırsınız.

AI, mikseriniz gibi değil. AI sistemleri, çevremizdeki dünya gibi zaman içinde değişen, değişen ve gelişen dinamik, yaşayan sistemlerdir. Çoğu zaman, bu değişiklikler AI modellerinin veya sistemlerinin orijinal programlarından veya parametrelerinden sapmasına ve beklenmeyen ve/veya istenmeyen sonuçlara neden olabilir. Toplu olarak “sürüklenme” olarak adlandırılan bu olgu, yapay zeka dünyasında yaşamın bir gerçeğidir ve yapay zeka ürünlerinin geliştirilmesini ve satışını, mutfak bataryaları geliştirip satmaktan çok daha karmaşık hale getirir.

Hafiflik bir yana, sürüklenmenin çok gerçek ve çok ciddi sonuçları olabilir. Otonom araçlarda veri kayması potansiyel olarak hayatlara mal olabilir. Yüz tanıma teknolojilerindeki sapma masum insanları hapse atabilir. (Vb.) Bu fenomeni izlemek ve hafifletmek için tasarlanmış uygun bir düzenleyici çerçeve olmadan, talihsiz sonuçlar göreceğimizden eminiz.

Bu nedenlerden dolayı, şirketlerin ve düzenleyicilerin, araçlarının güvenli olduğundan ve mevcut dünyaya uygun şekilde uyarlandığından emin olmak için – takviyeli öğrenme ve eğitim verisi optimizasyonu gibi şeyler dahil olmak üzere – sürekli iyileştirme ve optimizasyon süreçlerinin uygulanmasına yönelik yönergeler oluşturması önemlidir. gerçek zamanlı.

Sürekli iyileştirme durumu: Bölüm 2 — Yorulmak bilmeyen rakipler

Bugünün yapay zeka endüstrisinin ön saflarında yer alan yöneticilerin ve temsil ettikleri şirketlerin, teknolojinin toplum için olabildiğince güvenli ve faydalı olmasını sağlamak için ellerinden gelenin en iyisini yaptıklarına inanıyorum.

Bununla birlikte, her yeni teknolojinin – ne kadar titizlikle test edilmiş olursa olsun – istismar edilebilecek kusurları olacaktır. Bir sistemdeki her boşluğu kapatmak neredeyse imkansızdır ve şaşırtıcı olmayan bir şekilde, hayatın bu gerçeğini zaten yapay zeka alanında tam olarak görüyoruz.

Teknolojiler nispeten kısa bir süre için halka açık olmasına rağmen, hem araştırmacılar hem de kötü niyetli aktörler, ChatGPT gibi popüler üretken yapay zeka araçlarını birden fazla yolla başarılı bir şekilde hapse attılar. Ve OpenAI bu istismarlardan birini her yamaladığında, ardından yeni bir akıllı teknik ortaya çıkıyor.

Kritik olarak, bu tekniklerin çoğu, sistemin korkuluklarını başarılı bir şekilde kaldırmak için akıllı bilgi istemi mühendisliğinden (yani, yapay zekadan belirli bir çıktı elde etmek amacıyla optimize edilmiş bilgi istemleri veya girdiler oluşturma süreci) başka bir şey kullanmaz. Yürütmek için derinlemesine yapay zeka bilgisi (hatta kodlamaya aşinalık) gerektirmezler. Doğal dilden başka bir şey kullanılmadan yürütülebilirler.

Ve siber güvenliğin tarihi göz önüne alındığında, bu istismarların hacminin, çeşitliliğinin ve karmaşıklığının yalnızca zaman içinde artacağından emin olabiliriz. Bu nedenle, “yapay zeka sistemlerinin güvenliğini lansmandan önce test etme” sözü vermek, bu teknolojilerin silah haline getirilmesini engellemeye yetmiyor. Bunun yerine, zarar verme potansiyellerini en aza indirmeyi umuyorsak, piyasada bulunan her yapay zeka aracının aktif olarak izlenmesini ve güvenlik açıkları için sürekli olarak optimize edilmesini sağlamalıyız – ve hatta belki de ihtiyatsızlıklar için hukuki veya yasal cezalar uygulamalıyız.

İnsan içgörüsü ihtiyacı

Son olarak ve belki de en önemlisi, yapay zeka kadar güçlü ve oyunun kurallarını değiştiren bir teknolojinin sınırlamaları olduğunu hatırlamalıyız. Ve eğer şu anki aşırı coşkulu halimizde bu sınırlamaları hatırlamıyorsak, ancak bir felakete yol açtıktan sonra bize hatırlatılma riskiyle karşı karşıyayız.

Yapay zeka odaklı bir siber güvenlik şirketinin kurucusu olarak, yapay zekanın faydalarını öven ilk kişi ben olacağım. Birçok, son derece değerli şeyler yapabilir. Ancak, içgörü, çıkarım, içgüdü veya yönetici karar verme gücüne sahip değildir. Bu nedenlerden dolayı, bu harika teknoloji ile dünyayı değiştirme telaşımızda, onun kâhyaları olarak rollerimizi unutmamamız zorunludur.

Hem geliştiriciler hem de son kullanıcılar, yapay zekayı asla insan zekasının yerini alacak bir şey olarak görmemelidir. Bunun yerine, insan zekasını artırmanın bir yolu olarak görülmelidir; daha fazlasını, hatta daha büyük şeyleri yapmamız için bizi güçlendiren bir araç. Ancak geleceğin bu versiyonunun gerçekleşmesi için, en önemli, sonuç niteliğindeki, yaşamı değiştiren kararların (yönetim kurulu odasında ve başka yerlerde) nihayetinde hem şimdi hem de gelecekte hala insanlar tarafından alındığından emin olmalıyız. .



Source link