BM, Güvenli Yapay Zeka İçin Büyük Ölçüde Sembolik Çözümü Benimsedi


Birleşmiş Milletler Perşembe günü yapay zekanın sorumlu kullanımına ilişkin, küresel yapay zeka güvenliğine yönelik belirsiz sonuçları olan bir kararı kabul etti.

ABD tarafından hazırlanan teklif 120 ülke tarafından ortak desteklenen ve oylama yapılmadan kabul edilen proje, sekiz sayfalık belgede 24 kez tekrarlanan “güvenli, emniyetli ve güvenilir yapay zekayı” teşvik etmeye odaklanıyor.

Bu hamle, yapay zekanın bugün ortaya çıkardığı acil sorunlara ilişkin farkındalığın sinyalini veriyor: dezenformasyon kampanyalarındaki rolü ve diğer pek çok şeyin yanı sıra, uluslar arası ve ülke içindeki insan hakları ihlallerini ve eşitsizliği daha da kötüleştirme yeteneği – ancak herhangi birinden herhangi bir şey talep etmekte yetersiz kalıyor ve özellikle siber güvenlik tehditlerinden yalnızca genel olarak söz ediyor.

AppOmni'nin baş yapay zeka mühendisi ve güvenlik araştırmacısı Joseph Thacker, “Masaya doğru kişileri almanız gerekiyor ve bunun bu yönde atılmış bir adım olduğunu umuyorum” diyor. Sonuçta “söyleyebilirsin” diye inanıyor [to member states]: 'Hey, bunu yapmaya karar verdik. Ve şimdi de takip etmiyorsun.”

Kararda Neler Belirtiliyor?

Yeni BM kararında yapay zekadan kaynaklanan siber güvenlik tehditlerine en doğrudan değinme, üye devletleri “fiziksel güvenlik, yapay zeka sistemleri güvenliği ve risk yönetimi dahil olmak üzere etkili koruma önlemlerinin geliştirilmesi ve uygulanmasına yönelik yatırımların güçlendirilmesi” konusunda teşvik eden kararın 6f alt bölümünde bulunabilir. yapay zeka sistemlerinin yaşam döngüsü.”

Thacker “sistem güvenliği” teriminin seçiminin altını çiziyor. Şöyle diyor: “Bu terimi seviyorum, çünkü bunun bütünü kapsadığını düşünüyorum. [development] yalnızca güvenlik değil, yaşam döngüsü.”

Diğer öneriler, hem AI sistemlerinin test edilmesi hem de değerlendirilmesi sırasında “risk izleme ve yönetim mekanizmaları, kişisel veri koruma ve gizlilik politikaları dahil olmak üzere verileri güvence altına almaya yönelik mekanizmaların yanı sıra uygun olduğunda etki değerlendirmeleri” de dahil olmak üzere kişisel verilerin korunmasına daha fazla odaklanıyor ve dağıtım sonrası.

Thacker, “Başlangıçta dünyayı değiştiren hiçbir şey bununla birlikte gelmedi, ancak küresel düzeyde uyum sağlamak – en azından neyin kabul edilebilir veya kabul edilemez olarak gördüğümüze dair temel bir standarda sahip olmak – oldukça büyük” diyor.

Hükümetler Yapay Zeka Sorununu Ele Alıyor

Bu son BM kararı, Batılı hükümetlerin son aylarda gerçekleştirdiği daha güçlü eylemlerin sonucudur.

Her zamanki gibi Avrupa Birliği öncü oldu. Yapay Zeka Yasası. Kanun, sosyal puanlama sistemleri oluşturmak ve insan davranışını manipüle etmek gibi teknolojinin belirli kullanımlarını yasaklıyor ve uyumsuzluk durumunda milyonlarca dolara veya bir şirketin yıllık gelirinin önemli bir kısmına varabilecek cezalar uyguluyor.

Biden Beyaz Saray da önemli ilerlemeler kaydetti. Geçen sonbaharda Yönetici Emriyapay zeka geliştiricilerini kritik güvenlik bilgilerini paylaşmaya, güvenlik açıklarını bulup düzeltmek için siber güvenlik programları geliştirmeye ve sahtekarlık ve suiistimali önlemeye teşvik ederek dezenformasyon medyasından sohbet robotları kullanan teröristlere ve biyolojik silahlar tasarlamaya kadar her şeyi özetliyor.

Thacker, siyasetçilerin yapay zeka emniyeti ve güvenliği üzerinde anlamlı, kapsamlı bir etkiye sahip olup olmayacağının zamanla görüleceğini söylüyor, bunun nedeni ise “ülke liderlerinin çoğunun, güç zincirinde yavaş yavaş ilerledikçe doğal olarak daha yaşlı olacak olması” diyor. Bu yüzden akıllarını yapay zekaya odaklamak zor.”

“Yapay zeka ve yapay zeka güvenliğinin geleceğini eğitmeye veya değiştirmeye çalışıyor olsaydım hedefim saf eğitim olurdu. [World leaders’] Programlar o kadar yoğun ki, ancak bunu düzgün bir şekilde yasalaştırıp düzenleyebilmek için bunu öğrenmeleri ve anlamaları gerekiyor” diye vurguladı.





Source link