YORUM
Skynet kendinin farkına varıyor kurguydu. Buna rağmen, kıyamet korkularını körükleyen raporlar yapay zeka (YZ) yükselişte görünüyor. Yapay zeka ile ilgili yayınlanan içgörülerin sorumlu bir şekilde ele alınması ve raporlanması gerekiyor. Anket bulgularını, insan olmayan düşmanların getirdiği kıyamet sonu oyununu çağrıştıracak şekilde sergilemek hepimize kötülük etmektir. Terminatör filmler.
Bu yılın başlarında bir hükümet çapında eylem planı ve raporu Yapay zekanın beraberinde felaket riskleri getirebileceği bir analize dayanarak yayınlandı ve yapay zekanın “insan türü için yok olma düzeyinde bir tehdit” oluşturduğunu belirtti. Rapor ayrıca, teknoloji şirketlerinin kendi kendini düzenlemede başarısız olması ve/veya yapay zekanın gücünü kontrol altına almak için hükümetle birlikte çalışmaması durumunda, yapay zekanın oluşturduğu ulusal güvenlik tehdidinin muhtemelen artacağını da ortaya koyuyor.
Bu bulguları göz önünde bulundurarak, anket sonuçlarının bilimsel analizlere dayanmadığını ve yayınlanan raporların her zaman AI’nın temel teknolojisinin kapsamlı bir şekilde anlaşılmasıyla desteklenmediğini belirtmek önemlidir. AI ile ilgili endişeleri destekleyecek somut kanıtlardan yoksun olan AI’ya odaklanan raporlar, bilgilendirici olmaktan çok kışkırtıcı olarak görülebilir. Dahası, bu tür raporlamalar AI düzenlemesinden sorumlu hükümet kuruluşlarına sağlandığında özellikle zararlı olabilir.
Tahminlerin ötesinde, yapay zeka ile ilgili tehlikeye dair aşırı derecede kanıt eksikliği var ve teknolojik ilerlemeye sınırlamalar önermek veya uygulamak cevap değil.
Bu raporda, “İnsanların %80’i yapay zekanın düzenlenmemesi durumunda tehlikeli olabileceğini düşünüyor” gibi yorumlar, endişe alevlerini körüklemek için ülkemizin anlamadığımız şeylerden korkma yönündeki kültürel önyargısını besliyor. Bu tür felaket konuşmaları dikkat çekebilir ve manşetlere konu olabilir, ancak destekleyici kanıtların yokluğunda olumlu bir amaca hizmet etmez.
Şu anda, gelecekteki yapay zeka modellerinin, insan odaklı felaket niyetiyle eşleştirilebilecek veya eşleştirilemeyecek otonom yetenekler geliştireceğini bize söyleyen hiçbir şey yok. Yapay zekanın son derece yıkıcı bir teknoloji olmaya devam edeceği bir sır olmasa da bu, onun mutlaka insanlık için yıkıcı olacağı anlamına gelmiyor. Dahası, ileri biyoloji, kimya ve/veya siber silahlar geliştirmek için yardımcı bir araç olarak yapay zeka, yeni ABD politikalarının veya yasalarının uygulanmasıyla çözülecek bir şey değildir. Aksine, bu tür adımların yapay zeka silahlanma yarışında kaybeden tarafta olacağımızı garanti etme olasılığı daha yüksektir.
Tehdit Oluşturan Yapay Zeka ile Ona Karşı Savunma Yapan Yapay Zeka Aynıdır
Zarar vermek isteyen diğer ülkeler veya bağımsız kuruluşlar, ABD’nin ulaşamayacağı yıkıcı yapay zeka tabanlı yetenekler geliştirebilirler. Sınırlarımızın ötesindeki güçler yapay zekayı bize karşı kullanmayı planlıyorsa, örneğin biyolojik silahlar yaratabilen yapay zekanın, bu tehdide karşı en iyi savunmamızı sağlayacak yapay zekayla aynı olduğunu unutmamak önemlidir. Ek olarak hastalıklara yönelik tedavilerin, toksinlere yönelik tedavilerin geliştirilmesi ve kendi siber sektör yeteneklerimizin geliştirilmesi, ilerleyen yapay zeka teknolojisinin eşit sonuçlarıdır ve gelecekte yapay zeka araçlarının kötü niyetli kullanımıyla mücadelede bir ön koşul olacaktır.
İş dünyası liderlerinin ve kuruluşlarının, yapay zekanın hem geliştirilmesi hem de kullanımına ilişkin düzenlemelerin uygulanmasını proaktif bir şekilde izlemesi gerekiyor. Yapay zekanın yalnızca modellerin nasıl ilerlediğine değil, yaygın olduğu sektörlerde etik olarak uygulanmasına odaklanmak da kritik önem taşıyor. Örneğin, AB’de, veri kümelerindeki adaletsiz karar almaya izin verebilecek doğal önyargılarla ilgili endişeleri gidermek amacıyla ev sigortacılığı için yapay zeka araçlarının kullanılmasına ilişkin kısıtlamalar vardır. Diğer alanlarda, yapay zeka analizinin ve karar vermenin işe alım ve işe alımda nasıl uygulandığına ilişkin güvenceler oluşturmak için “döngüdeki insan” gereklilikleri kullanılıyor.
Hangi Düzeydeki Bilgi İşlemin Güvenli Olmayan Yapay Zeka Oluşturacağını Tahmin Etmenin Bir Yolu Yok
Time’ın bildirdiğine göreYukarıda adı geçen rapor – Gladstone’un çalışması – Kongre’nin “belirli bir bilgi işlem gücü seviyesinden fazlasını kullanan yapay zeka modellerini eğitmeyi” yasa dışı hale getirmesi gerektiğini ve eşiğin “federal bir yapay zeka kurumu tarafından belirlenmesi gerektiğini” tavsiye etti. Örnek olarak rapor, ajansın eşiği “OpenAI’nin GPT-4 ve Google’ın Gemini gibi mevcut son teknoloji modellerini eğitmek için kullanılan bilgi işlem gücü seviyelerinin hemen üzerinde” belirleyebileceğini öne sürdü.
Bununla birlikte, ABD’nin yapay zekanın nasıl düzenlenmesi gerektiğine dair bir yol haritası oluşturması gerektiği açık olsa da, potansiyel olarak güvenli olmayan yapay zeka modelleri oluşturmak için hangi seviyede bilgi işlemin gerekli olacağını tahmin etmenin bir yolu yok. Herhangi birini ayarlama Yapay zekanın ilerlemesine bir eşik koymak için hesaplama sınırı hem keyfi hem de teknoloji endüstrisine ilişkin sınırlı bilgiye dayalı olacaktır.
Daha da önemlisi, böyle bir adımı destekleyecek kanıtın yokluğunda değişimi bastırmaya yönelik sert bir adım zararlıdır. Endüstriler zaman içinde değişiyor ve dönüşüyor ve yapay zeka gelişmeye devam ettikçe bu dönüşüme gerçek zamanlı olarak tanık oluyoruz. Şimdilik durum böyle, TerminatörSarah ve John Connor istifa edebilir.