Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
Yapay zeka gelişimi için coşku, güvenlik üzerine tartışmaları geride bırakıyor
Rashmi Ramesh (Rashmiramesh_) •
3 Nisan 2025

Google DeepMind yöneticileri, ileri yapay zeka sistemleri ortaya çıkmadan önce güvenceler uygulanmazsa, “insanlığı kalıcı olarak yok edebilecek” ciddi zarar “uyarısı olan yapay genel istihbarat güvenliğine bir yaklaşım ana hatlarıyla belirttiler.
Ayrıca bakınız: Cenai Risk Yönetimi için C-Suite Kılavuzu
AGI’nin 2030 yılına kadar gelebileceği ve potansiyel olarak yetenekli yetişkinlerin 99. persentilinde çok çeşitli fiziksel olmayan görevlerde performans gösterebilen 145 sayfalık bir makale tahminleri. Şirket, rekabetçi baskılar AI gelişimini yönlendirirken proaktif risk azaltma stratejileri çağrısında bulundu.
Makale dört ana endişe alanı tanımladı: kasıtlı olarak kötüye kullanım, AI eylemleri ve insan amacı arasında yanlış hizalama, kazara zarar ve AI sistemi etkileşimlerinden kaynaklanan yapısal riskler.
Kağıt yazarları Anca Dragan, Rohin Shah, Four Flynn ve Shane Legg, eğitim, izleme ve güvenliğe odaklanarak bu zorlukları ele almak için teknik ve politika müdahalelerinin bir karışımını önerdiler. Makalenin önemli bir tartışma noktası, AGI’nin özyinelemeli AI iyileştirmesine yol açıp açamayacağıdır, burada AI sistemleri gelecekteki modelleri geliştirmek için kendi araştırmalarını yürütür. Yazarlar böyle bir geri bildirim döngüsünün ciddi riskler oluşturabileceğini söyledi.
Ancak bazı uzmanlar şüpheci. AI araştırmacısı Matthew Guzdial’ın fikri spekülatif olarak reddettiği ve kendi kendini geliştiren AI sistemlerini destekleyen kanıt eksikliğine dikkat çektiği bildirildi. AI düzenleme uzmanı Sandra Wachter, TechCrunch’a odaklanmanın daha acil bir konuda olması gerektiğini söyledi: AI Systems kendi kusurlu çıktılarından öğrenen ve zaman içinde yanlışlıkları güçlendiren.
DeepMind’in endişeleri, AI gelişimi için coşkunun güvenlik üzerine tartışmaları aştığı bir zamanda geliyor. Küresel rekabet, özellikle ABD ve Çin arasındaki yarış, AGI’ya yönelik yarışı hızlandırıyor. ABD Başkan Yardımcısı JD Vance, AI ilerlemesinin varsayımsal tehlikeleri tartışmak yerine altyapı inşa etmeye bağlı olduğunu savunarak Paris AI Eylem Zirvesi’nde aşırı dikkat gösterdi. Google CEO’su Sundar Pichai, AI’nın yeni teknolojileri çevreleyen tarihi korkulara rağmen olumlu değişim sağlama potansiyeline sahip olduğunu söyleyerek bu düşünceyi güçlendirdi.
Bazı AI araştırmacıları bu iyimserliğe meydan okuyor. AI öncüsü Yoshua Bengio, Paris AI zirvesinin güvenlik konusundaki aciliyet eksikliğini eleştirerek AI risklerinin daha fazla ciddi dikkat gerektirdiğini uyardı. Antropik CEO Dario Amodei endişeleri yineledi ve teknoloji hızla ilerledikçe AI güvenliğine daha fazla odaklanmayı savundu.
Endüstri oyuncuları, bugünün AI sistemlerinin zaten beklenmedik davranışlar sergilediğini kabul ediyorlar. Antropik tarafından yapılan yeni bir araştırma, büyük dil modellerinin yaratıcılarının öngördüklerinin ötesinde ileri akıl yürütme yeteneklerini gösterdiğini buldu. Yapay zeka sistemlerinin şiir oluşturmak için adımları planladığı ve bilişsel süreçleri hakkında önceki varsayımlara meydan okuyan örnekleri gözlemledi. Kayıp hesaplama kaynakları için geçici çözümler bulan AI modelleri vakaları da ortaya çıkmış ve istenmeyen sonuçların potansiyelini göstermiştir (bkz:: AI’nın nasıl düşündüğüne ‘bir göz atın – ve neden halüsinasyon).
Deepmind makalesi kesin çözümler sağlamaz, ancak AI risk azaltımı ile ilgili tartışmalara rehberlik etmektedir. Yazarlar, AI güvenliği, AI karar verme sürecinin daha iyi anlaşılması ve kötü niyetli kullanıma karşı daha güçlü korumalar konusunda sürekli araştırmalar önermişlerdir.
DeepMind yazarları, “AGI’nın dönüştürücü doğası hem inanılmaz faydalar hem de ciddi zararlar potansiyeline sahip.” “Sonuç olarak, AGI’yi sorumlu bir şekilde inşa etmek için, Frontier AI geliştiricilerinin proaktif olarak ciddi zararları azaltmayı planlaması kritiktir.”