Sunak yaklaşan Yapay Zeka Güvenliği Zirvesi için ortamı hazırlıyor


Başbakan Rishi Sunak, Birleşik Krallık’ın teknolojiyle ilgili potansiyel sorunları anlama ve ele alma konusundaki küresel sorumluluğuna ilişkin yaptığı konuşmada, yapay zeka (AI) risklerinin ciddi olduğunu ancak üzerinde kafa yorulacak bir şey olmadığını söyledi.

26 Ekim’de Royal Society’de konuşan Sunak, teknolojinin dönüştürücü potansiyeli konusunda “utanmaz derecede iyimser” olmakla birlikte, sunulan tüm fırsatlardan yararlanmak için yapay zeka ile ilgili gerçek risklerin ele alınması gerektiğini söyledi.

“Bunu yanlış anladığınızda yapay zeka, kimyasal veya biyolojik silahların yapımını kolaylaştırabilir. Terörist gruplar, korku ve yıkımı daha da büyük ölçekte yaymak için yapay zekayı kullanabilir. Suçlular yapay zekayı siber saldırılar, dezenformasyon, dolandırıcılık ve hatta çocukların cinsel istismarı için istismar edebilir. Ve en olası olmayan ancak aşırı durumlarda, bazen ‘süper zeka’ olarak adlandırılan bir tür yapay zeka yoluyla insanlığın yapay zekanın kontrolünü tamamen kaybetme riski bile var” dedi.

“Şimdi, tamamen açık olmak istiyorum; bu, insanların şu anda uykusuz kalması gereken bir risk değil. Alarmist olmak istemiyorum. Ve bununla ilgili gerçek bir tartışma var; bazı uzmanlar bunun hiçbir zaman gerçekleşmeyeceğini düşünüyor. Ancak bu riskler ne kadar belirsiz ve olası olmasa da, eğer kendilerini gösterirlerse, sonuçları inanılmaz derecede ciddi olacaktır” diye devam etti.

Sunak ayrıca, şeffaflık adına Birleşik Krallık hükümetinin, 1 ve 2’de Bletchley Park’ta yapılacak olan Yapay Zeka Güvenliği Zirvesi için tartışmayı oluşturmaya hizmet edecek olan “sınır yapay zekası” ile ilgili riskler ve yeteneklere ilişkin analizini yayınladığını belirtti. Kasım.

Sunak’ın konuşmasından bir gün önce yayınlanan analiz makalesi, hükümet tarafından çok çeşitli görevleri yerine getirebilen ve mevcut yetenekleri karşılayabilen veya aşabilen yüksek kapasiteli genel amaçlı herhangi bir yapay zeka modeli olarak tanımlanan sınır yapay zekanın mevcut durumunu özetlemektedir. En gelişmiş modeller – teknolojinin ekonomi genelinde üretkenliği artırmak için açık fırsatlar sunmasına rağmen aynı zamanda “küresel istikrarı tehdit etme ve değerlerimizi baltalama” risklerini de beraberinde getirdiğine dikkat çekiyor.

Makale, bu tür yapay zeka araçlarının çeşitli riskleri konusunda, potansiyel olumsuz etkileri konusunda uzman görüş birliğinin bulunmaması nedeniyle ne kadar daha fazla araştırmaya ihtiyaç duyulduğunun altını çizerken, “genel riskin, bu teknolojiye olan güvenin ve güvenilirliğin kaybı olduğunu ve bunun da bizi ve gelecek nesilleri bunun dönüştürücü olumlu faydalarından kalıcı olarak mahrum bırakıyoruz”.

Makalede ana hatlarıyla belirtilen diğer yapay zeka riskleri arasında geliştiricilerin risk hafifletmeye yatırım yapmalarına yönelik teşviklerin olmayışı; pazar gücünde önemli yoğunlaşmalar yaratma potansiyeli; işgücü piyasalarının bozulması; dezenformasyon ve bilgi ortamının genel olarak bozulması; giderek daha karmaşık hale gelen siber saldırıların mümkün kılınması; ve sonuçta teknoloji üzerindeki insan kontrolünün kaybı.

Sunak, yapay zekanın güvenli olmasını sağlamada devletin bir rol oynaması gerektiğini, ancak şu anda teknolojinin güvenliğini test edenlerin yalnızca onu geliştiren kuruluşlar olduğunu belirterek, Birleşik Krallık’ın teknolojiyi düzenlemek için acele etmeyeceğini ekledi.

“Bu bir prensip meselesi; biz yeniliğe inanıyoruz, bu İngiliz ekonomisinin ayırt edici özelliğidir, dolayısıyla onu bastırmak değil teşvik etmek konusunda her zaman bir varsayımımız olacak. Ve her durumda, henüz tam olarak anlamadığımız bir şey için anlamlı olan yasaları nasıl yazabiliriz? dedi. “Bunun yerine, hükümet içindeki yapay zeka modellerinin güvenliğini anlamak ve değerlendirmek için dünya lideri bir yetenek geliştiriyoruz. Bunu yapmak için halihazırda yeni bir görev gücüne 100 milyon £ yatırım yaptık; bu, yapay zeka güvenliği için dünyadaki herhangi bir ülkeden daha fazla fon sağlıyor.”

Bu amaçla Sunak, hükümetin dünyanın ilk Yapay Zeka Güvenlik Enstitüsü’nü kuracağını da duyurdu; bu kurum “her yeni modelin neler yapabileceğini anlamak için yeni yapay zeka türlerini dikkatli bir şekilde inceleyecek, değerlendirecek ve test edecek” [while] Önyargı ve yanlış bilgilendirme gibi sosyal zararlardan, en uç risklere kadar tüm riskleri araştırıyoruz.”

Yaklaşan Yapay Zeka Güvenlik Zirvesi’nde Sunak, “bu risklerin doğası hakkında ilk uluslararası beyanda mutabakata varmanın” bir öncelik olacağını, böylece ortak bir anlayışın gelecekteki eylemler için bir temel olarak kullanılabileceği söyledi.

Uluslararası bilimsel fikir birliğine varılmasına yardımcı olmak amacıyla kurulan Hükümetlerarası İklim Değişikliği Paneli’nden ilham alan Sunak, zirve katılımcılarına yapay zeka konusunda da ülkeler ve kuruluşlar tarafından aday gösterilecek benzer bir küresel uzman panelinin kurulmasını önereceğini söyledi. katılıyor.

“Birleşik Krallık’ı güvenli yapay zeka alanında küresel bir lider haline getirerek, bu yeni teknoloji dalgasından gelecek daha fazla yeni iş ve yatırımı çekeceğiz” diye ekledi.

Dengeyi doğru mu kuruyorsunuz?

Sunak’ın konuşmasından önce 25 Ekim’de Royal Society’de düzenlenen Yapay Zeka Güvenlik Zirvesi öncesi etkinliğinde, uzmanlardan oluşan bir panel, hem hükümet hem de bazı geliştiriciler tarafından yapay zeka ile ilgili varoluşsal risklere yapılan son vurgunun nasıl olduğunu anlattı. medyada genel olarak olduğu gibi, şu anda meydana gelen gerçek dünyadaki zararlardan odağı uzaklaştırdı.

Örneğin, en son yapay zeka güvenlik araştırmalarını ileriye taşımak ve teknolojiyle ilgili riskler ve fırsatlar konusunda hükümete tavsiyelerde bulunmak üzere tasarlanmış olsa da, Sunak’ın konuşmasında övdüğü 100 milyon £ değerindeki Sınır Yapay Zeka Görev Gücü, önemli riskler ve fırsatlar sunan sistemlerin değerlendirilmesine özel olarak odaklanıyor. Kamu güvenliği ve küresel güvenliğe yönelik riskler.

Örneğin, üretken yapay zeka firması Stability AI’nın politika başkanı Ben Brooks, “sınır riskleri”ne yapılan tüm vurgunun, şeffaflık, güvenilirlik, öngörülebilirlik ve hesap verebilirlik sorunlarıyla değil, tamamen yeni bir dizi sorunla karşı karşıya olduğumuz anlamına geldiğini belirtti. mevcut AI heyecan döngüsünün tarihini önceden belirleyin.

Ayrıca, sınır riskleri ve modellerine bu kadar vurgu yapılmasının aynı zamanda “küçük bir spekülatif risk sepetine” odaklanmayı azalttığını ve karşı karşıya olduğumuz çok sayıda acil, daha günlük riskleri göz ardı ettiğini de sözlerine ekledi.

Cambridge Üniversitesi Minderoo Teknoloji ve Demokrasi Merkezi’nin genel müdürü Gina Neff, yapay zekanın geleceğin yeni altyapı tekellerini inşa etmek için nasıl kullanılabileceğinden de bahsetti; bu da güç ve sonuçta kimin biçeceğine ilişkin soruları gündeme getiriyor. faydalar.

“Bunlar zirvede masada olmayan sorular. Bunlar, gelecek hafta Bletchley Park’ta insanları ve ülkeleri bir araya getirmeye motive edecek türde sorular değil” dedi ve gelişmiş yapay zeka yeteneklerine sahip az sayıda firmanın, sözleşme şartlarını dikte edebileceği bir duruma karşı uyarıda bulundu. ekonomi ileriye gidiyor.

“Ekonomilerimizi nasıl yeniden oluşturduğumuza, toplumlarımızı nasıl yeniden oluşturduğumuza dair sorular var. Bahsettiğimiz sorular bu sorular değil ama kamuoyunun bu kadar ilgilenmesinin nedeni de bu.”

Benzer bir notta Brooks, yeterli yayın süresi alamamanın rekabetin potansiyel çöküşü riskini ve bunun daha geniş toplum için ne anlama geldiğini de sözlerine ekledi.

“Bir teknoloji olarak yapay zeka, ekonomik değer yaratımını neredeyse hiçbir başka teknolojinin sahip olmadığı şekilde merkezileştirme potansiyeline sahip… 20 ila 25 yıldır bir arama motoru, iki veya üç sosyal medya platformu, üç sosyal medya platformu içeren bir dijital ekonomiyle yaşıyoruz. veya dört bulut bilgi işlem sağlayıcısı” dedi. “Rekabeti bir politika önceliği olarak düşünmediğimiz sürece yapay zekada bu hatalardan bazılarını tekrarlamamız yönünde ciddi bir risk var.”

Brooks ve aralarında İnsan Hakları İzleme Örgütü’nün teknoloji ve insan hakları programı yöneticisi Anna Bacciarelli ve Tech Global Institute’un kurucusu Sabhanaz Rashid Diya’nın da bulunduğu diğerleri, yapay zekanın arkasında yatan “karmaşık tedarik zincirinin” büyük bir güvenlik riski olduğu konusunda da uyarıda bulundu teknolojinin kullanımı ve veri etiketleyicilerin ve yapay zekanın eğitimi ve sürdürülmesinden sorumlu olan diğer kişilerin istihdamına ve insan haklarına saygı gösterilmesinin sağlanması ihtiyacı.

“[AI] modeller boşlukta mevcut değildir; Onlar var çünkü insanlar onları tasarlıyor ve onların arkasında kararlar alıyorlar. Hangi verinin gireceğine, hangi verinin dışarı çıkacağına, onu nasıl eğiteceğinize veya tasarlayacağınıza, onu nasıl konuşlandıracağınıza, nasıl yöneteceğinize karar veren insanlar var” dedi Diya. .

Sunak’ın konuşmasına yanıt veren Prospect sendikasının genel sekreter yardımcısı Andrew Pakes, teknolojinin işyerlerinde giderek yaygınlaşmasına rağmen işçilerin ve sendikaların yaklaşan Yapay Zeka Güvenlik Zirvesi’ne dahil edilmediğine dikkat çekti.

“Yapay zeka, daha iyi çalışma fırsatlarını beraberinde getiriyor ancak aynı zamanda işleri tehdit ediyor ve işe alım ve disiplin süreçlerinde önyargıları artırma potansiyeline sahip” dedi.

“Yapay zeka mevzuatının hiçbir incelemesi, herhangi bir değişiklikten etkilenecek sendikalar ve işçilerle uygun şekilde istişarede bulunulmadan etkili olamaz. Birleşik Krallık’ın çalışma dünyasını küresel olarak etkileme fırsatı var, ancak bunu ancak işçilerin önümüzdeki yıllarda kendilerini etkileyecek kararlara dahil edilmesinde öncülük etmesi durumunda.”



Source link