Trump, Biden’ın Yapay Zeka Gelişimi ve Güvenliğine İlişkin Kurallarını Bozdu


Başkan Donald Trump, eski Başkan Joe Biden’ın yapay zeka (AI) sistemlerinin etrafına güvenlik korkulukları koymayı ve bunların ulusal güvenliğe potansiyel etkilerini amaçlayan 2023 yönetici emrini iptal ederek OpenAI, Oracle ve Softbank gibi özel sektör şirketlerine büyük bir destek sağladı. ABD’de yapay zeka altyapısının inşası için 600 milyar dolara kadar harcama yapma yönünde toplu taahhütlerle aynı şekilde karşılık verdiler.

Biden’ın AI yönetici emri Yapay zeka geliştiricilerinin ve ChatGPT gibi büyük dil modellerinin (LLM’ler) vatandaşlara, kritik altyapıya, tehlikeli biyolojik silahlara ve ABD ulusal güvenliğini etkileyen diğer alanlara yönelik yapay zeka destekli siber saldırıların önlenmesine yardımcı olmak için güvenlik standartları geliştirmelerini ve sonuçları federal hükümetle paylaşmalarını istedi.

Yapay Zeka Özel Sektör Yükseliyor

Bu iptalin hemen ardından Trump yönetimi, ABD’deki yapay zeka altyapısına yüz milyarlarca dolar aktarmayı amaçlayan Project Stargate’i açıkladı. Yıldız Geçidi etkinliği Beyaz Saray’daki toplantıya, fona 100 milyar dolar bağışta bulunan SoftBank CEO’su Masayoshi Son da katıldı. OpenAI CEO’su Sam Altman ve Oracle kurucu ortağı Larry Ellison, başlangıçta 100 milyar dolar taahhüt ettiler ve bu tutarın tamamı, ABD yapay zeka altyapısına bağlı ayrı bir şirket kurmak için kullanılacak. Microsoft, Nvidia ve yarı iletken şirketi Arm da teknoloji ortakları olarak yer alıyor.

Tören sırasında Ellison, Teksas’ta halihazırda yapım aşamasında olan veri merkezlerinin bulunduğunu söyledi. Proje Yıldız Geçidi.

Vantiq CEO’su Glenn Mandel de dahil olmak üzere önde gelen AI CEO’ları bu haberden memnun kaldı.

“Burada, Davos, İsviçre’deki Dünya Ekonomik Forumu’nda otururken, Başkan Trump’ın Stargate girişimini (OpenAI, SoftBank ve Oracle arasında yapay zeka altyapısına 500 milyar dolara kadar yatırım yapmayı amaçlayan bir işbirliği) duyurmasının ardından atmosfer coşkuyla dolu. ” Mandel bir açıklamada şunları söyledi.

Daha az hevesli bir aykırı Yıldız Geçidi Projesi Elon Musk’tırşirketlerin taahhütleri karşılayacak paraya sahip olmadığını iddia etti.

Trump Yönetiminin Yapay Zeka Siber Güvenlik Planı

Bunun, yapay zeka teknolojisi veya gelişimi üzerinde herhangi bir federal gözetimin olup olmayacağı veya nasıl olacağı hala tam olarak belli değil.

Optiv’in CISO’su Max Shier’e göre Biden AI yönetim emri mükemmel olmaktan çok uzaktı, ancak yine de AI gelişimi konusunda federal bir gözetim görmek istiyor.

Shier, “Biden’ın imzaladığı EO’nun yeterli olmadığını ve kusurları olduğunu düşündüğümden, bu geri çekilme fikrine kendi başına katılmıyorum” diyor. “Ancak, bunu sektöre daha uygun kontroller uygulayan, önceki EO kadar zorlayıcı olmayan ve yine de inovasyona izin veren bir yönetimle değiştirmelerini umuyorum.”

Shier, Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) ve Uluslararası Standardizasyon Örgütü (ISO) tarafından geliştirilen standartların “etik ve sorumlu kullanım için korkuluklar sağlamaya” yardımcı olacağını öngörüyor.

Yeni yönetim şimdilik yapay zekayı geliştirme görevini yeterli güvenlik kontrolleriyle özel sektörün ellerine bırakmaya hazır. Digital.ai’den Adam Kentosh, göreve hazır olduklarından emin olduğunu söylüyor.

“Yapay zeka gelişiminin hızlı temposu, inovasyon ve güvenlik arasında bir denge kurmayı zorunlu kılıyor. Bu denge kritik olsa da endüstrilerin yapay zeka geliştirmede düşünceli, güvenli uygulamaları benimsemesini sağlama sorumluluğu muhtemelen federal hükümetten ziyade bireysel şirketlere düşüyor. ” diyor Kentosh. “Bunu yaparak, hükümet müdahalesinin gerekli olduğu bir senaryoyu önleyebiliriz.”

Shier’a göre bu yeterli olmayabilir.

“Özel teşebbüsün kendi kendini yönetmesine izin verilmemeli veya etik kullanım açısından kendi standartlarına göre gelişmelerine güvenilmemelidir” diye vurguluyor. “Küçük şirketlerin inovasyona katılımını engellemeyen ancak yine de bir miktar gözetim ve hesap verebilirliğe izin veren korkulukların olması gerekiyor. Bu, özellikle kamu güvenliğinin veya ulusal güvenliğin risk altında olduğu veya risk yaratma potansiyelinin olduğu durumlarda geçerlidir. “





Source link