Birleşik Krallık düzenleyicileri yapay zeka güvenlik yönetimine hazır olduklarından emin


Bilim, İnovasyon ve Teknoloji Komitesi yakın zamanda Ofcom’dan ve diğer düzenleyicilerden yapay zekanın (AI) yönetimine ilişkin kanıtlar aldı.

Regülatörün hazırlığı

Ofcom, rolünün bir kısmını çevrimiçi güvenlik düzenleyicisi olarak görüyor ve hükümetin yapay zeka düzenlemesine yönelik önerdiği yasal olmayan yaklaşımı destekliyor. Komiteye sunulan yazılı kanıtlarda Ofcom, bu yaklaşımın esneklik sağladığını ve mevcut yasal düzenleyici rejimlerle örtüşme, tekrarlanma ve çatışma riskini önlemeye yardımcı olması gerektiğini söyledi.

Ofcom’un yapay zeka düzenleyicisi olarak sorumluluk üstlenmeye ne kadar hazır olduğu sorulduğunda Ofcom CEO’su Melanie Dawes, komite duruşmasında parlamento üyelerine, organizasyon genelinde Ofcom’un strateji ekibi tarafından koordine edilen bir çalışma programı olduğunu söyledi.

Beş yıl önce Ofcom’un büyük dil modelleri (LLM) konusunda 15 uzmandan oluşan özel bir yapay zeka ekibi kurmaya başladığını söyledi. Dawes, Ofcom’daki yaklaşık 1.350 personelden 50’sinin yapay zeka uzmanlarından oluştuğunu söyledi. Bu ekip, veri bilimi ve makine öğrenimi uzmanlarından ve bazı yeni yapay zeka türlerinde uzmanlığa sahip kişilerden oluşuyor. Dawes, “oldukça fazla farklı uzmanlık akışının” olduğunu, örneğin çevrimiçi güvenliğe odaklanan 350 kişilik bir ekibin bulunduğunu ekledi.

Şöyle dedi: “Yeni becerilere ihtiyacımız var. Her zaman yeni teknoloji uzmanlığı geliştirmeye devam etmemiz gerekiyordu.”

Ofcom’un donanımlı olup olmadığı sorulduğunda Dawes şunları söyledi: “Evet, kendimizi donanımlı hissediyoruz ancak bu teknolojinin piyasaları nasıl etkileyeceği konusunda büyük bir belirsizlik var. Ofcom’un temel tüzüğü teknoloji açısından tarafsız olduğundan ve teknolojinin türü tarafından dikte edilmediğinden değişime ve uyum sağlamaya açığız. Yaklaşımımızı buna göre uyarlayabiliriz.”

Komite toplantısındaki bir milletvekili, Ofcom’un düzenleme yapma konusunda doğru deneyime ve yeteneğe sahip yeterli sayıda kişiye sahip olup olmadığı konusundaki endişelerini dile getirdi.

Dawes şunları söyledi: “Hazine’den yıllardır sabit bir nakit bütçe tavanı aldık ve bir noktada bu bizim için gerçek kısıtlamalar yaratmaya başlayacak. Verimliliği artırma konusunda çok iyi hale geldik, ancak hükümet bizden yapay zeka alanında daha fazlasını yapmamızı isterse yeni kaynaklara ihtiyacımız olur. Mevcut yetki alanımız söz konusu olduğunda, mevcut kaynaklarımız şu anda genel olarak yeterli.”

Komite toplantısında hazır bulunan diğer düzenleyicilere de yapay zeka düzenlemelerine hazır olup olmadıkları sorgulandı. Bilgi komiseri John Edwards şunları söyledi: “ICO, kişisel verilerin dahil olduğu ölçüde, ister modeller geliştiriyor, ister modelleri eğitiyor veya uygulamaları dağıtıyor olsun, yapay zekadaki tedarik zincirinin tüm bölümleriyle iletişim kurduğumuzdan emin olmalıdır.”

“Yeni teknolojilerin ortaya çıkardığı düzenleyici zorlukların üstesinden gelmek için iyi bir konumda olduğumuza inanıyorum”

John Edwards, ICO’su

Mevcut düzenleyici çerçevenin halihazırda uygulandığını ve bunun, belirlenen risklere yönelik belirli iyileştirmeler gerektirdiğini söyledi. “Hesap verme ilkeleri var. Şeffaflık ilkeleri vardır. Açıklanabilirlik ilkeleri vardır. Bu nedenle, yapay zeka konusunda son zamanlarda gördüğümüz gelişmelerle ilgili olarak hiçbir şekilde düzenleyici bir boşluk olmadığı konusunda komiteye güvence vermem çok önemli” diye ekledi Edwards.

ICO’nun Alan Turing Enstitüsü ile işbirliğinin bir parçası olarak üretken yapay zeka ve açıklanabilirlik konusunda kılavuz yayınladığını ekledi. Edwards, “Yeni teknolojilerin getirdiği düzenleyici zorluklara çözüm bulmak için iyi bir konumda olduğumuza inanıyorum” dedi.

Mali İdare Otoritesi’nin (FCA) veri, bilgi ve istihbarat sorumlusu Jessica Rusu şunları ekledi: “Hem yurt içinde hem de uluslararası alanda çok fazla işbirliği var ve Avrupalı ​​meslektaşlarımla oldukça fazla zaman geçirdim.”

Kendisi, FCA’nın geçici raporunun, düzenleyicilerin, herhangi bir boşluğu belirlemek için hükümetin belgesinde ana hatlarıyla belirtilen ilkeleri uygulamak için ihtiyaç duyacakları ek yetkilerin olup olmadığını görmek için boşluk analizi yapmalarını önerdiğini söyledi.

FCA’nın finans sektöründe siber güvenlik ve algoritmik ticaret güvencesine baktığını söyledi. “FCA’da bu yeni alana, özellikle de tüketici vergisine adım atacak araçlara ve düzenleyici araç setine sahip olduğumuzdan oldukça eminiz.”

“FCA perspektifinden bakıldığında, hem piyasa gözetimini hem de firmaların davranışlarını düzenleme yeteneğine sahip olduğumuza inanıyorum. Örneğin algoritmalara bakarak zaman içinde oldukça fazla çalışma yaptık.” o ekledi.

Tüketici güvenliği

Düzenleyicilerin yapay zeka güvenliğine bakarken karşılaşacağı ana zorluklar, Kasım ayındaki Bletchley Park Yapay Zeka Zirvesi öncesinde bu hafta yayınlanan bir hükümet belgesinde ele alınıyor.

Sınırdaki yapay zekanın yetenekleri ve riskleri Bilim, Yenilik ve Teknoloji Bakanlığı’nın makalesi, yapay zekanın küresel bir çaba olduğuna ve zararların çoğunun bir bütün olarak toplum tarafından karşılanması nedeniyle yapay zeka geliştiricileri arasındaki pazar başarısızlığı ve ülkeler arasındaki kolektif eylem sorunları nedeniyle güvenli yapay zeka gelişiminin engellenebileceğine işaret ediyor . Bu, bireysel şirketlerin, sistemlerindeki tüm potansiyel zararları ele alma konusunda yeterince teşvik edilemeyebileceği anlamına geliyor.

Raporun yazarları, yapay zeka geliştiricileri arasındaki hızlı ürün geliştirme konusundaki yoğun rekabet nedeniyle, yapay zeka tabanlı sistemler geliştiren firmaların, yapay zeka sistemlerini mümkün olduğu kadar hızlı ve yetersiz bir şekilde geliştirmek için rekabet ettiği bir “dibe doğru yarış” senaryosu potansiyelinin mevcut olduğu konusunda uyarıyor. Güvenlik önlemlerine yatırım yapın.

Raporda, “Bu tür senaryolarda, yapay zeka geliştiricilerinin bile, taahhütlerinin onları rekabet açısından dezavantajlı duruma sokmaması için tek taraflı olarak katı güvenlik standartlarına bağlı kalması zor olabilir” ifadesine yer verildi.

Hükümetin amacı yapay zeka güvenliğine yönelik yenilik yanlısı bir yaklaşım benimsemektir. Başbakan Rishi Sunak, yapay zeka güvenliği ve raporla ilgili konuşmasında şunları söyledi: “Kolay olanı değil, doğru olanı yapmak, bu teknolojilerden kaynaklanan riskler konusunda insanlara karşı dürüst olmak anlamına gelir.”

Komitenin yapay zeka yönetimi komitesi toplantısında, Rekabet ve Piyasalar Otoritesi (CMA) dijital pazarlar biriminin kıdemli yöneticisi Will Hayter’e hükümetin tekliflerinin yeterli tüketici koruması sağlayıp sağlamadığı soruldu.

Şöyle cevap verdi: “Bu pazar geliştikçe hâlâ anlamaya çalışıyoruz. Tasarının, dijital pazarlarda ortaya çıkan ve yapay zeka odaklı bir pazarı da içerebilecek pazar gücünü idare edebilmek için doğru esnekliği sağladığından oldukça eminiz.”

Yapay zeka güvenliğine ilişkin teklif edilen yasa Parlamento’dan geçerken Hayter, CMA’nın “tüketiciyi koruma tarafında önemli bir gelişme” olarak tanımladığı şey üzerinde hükümetle birlikte çalışacağını söyledi.

Yapay Zeka Güvenliği Zirvesi 1-2 Kasım 2023’te Bletchley Park’ta gerçekleşecek.



Source link