“Geniş yapay zekanın geniş ölçekte terörist içerik için kullanılacağı yönünde ortaya çıkan tehdide karşı koymak amacıyla bir tür genel yapay zeka tespit sistemi oluşturmak için materyal arşivimizi kullanmanın yolları olup olmadığını anlamak için Microsoft ile ortaklık kuracağız.” Hadley diyor. “Yapay zeka geninin, yapay zeka geninin düşmanca kullanımlarına karşı savunma yapmak için kullanılabileceğinden eminiz.”
Ortaklık bugün, Paris’te düzenlenecek olan internetteki terörizmi ve aşırılık yanlısı içeriği ortadan kaldırmak için tasarlanmış bir hareket olan Christchurch Çağrı Liderleri Zirvesi’nin arifesinde duyuruldu.
Microsoft’un başkan yardımcısı ve başkanı Brad Smith, yaptığı açıklamada, “Dijital platformların şiddet içeren aşırılık yanlısı içeriği yaymak için kullanılması, gerçek dünyada sonuçları olan acil bir sorundur” dedi. “Teröre Karşı Teknolojinin yeteneklerini yapay zekayla birleştirerek hem çevrimiçi hem de çevrimdışı daha güvenli bir dünya yaratılmasına yardımcı olmayı umuyoruz.”
Microsoft, Google ve Facebook gibi şirketlerin hepsinin kendi yapay zeka araştırma bölümleri var ve muhtemelen bu sorunla mücadele etmek için kendi kaynaklarını kullanıyor olsalar da, yeni girişim sonuçta bu çabalarla kendi başlarına mücadele edemeyen şirketlere yardımcı olacak.
Hadley, “Bu, kendi yapay zeka araştırma merkezlerine sahip olmayan küçük platformlar için özellikle önemli olacak” diyor. “Şu anda bile karma veritabanları nedeniyle, daha küçük platformlar bu içeriğin altında ezilebiliyor.”
Yapay zeka üreten içerik tehdidi aşırılık yanlısı gruplarla sınırlı değil. Geçtiğimiz ay, internetteki çocuk istismarı içeriğini ortadan kaldırmak için çalışan İngiltere merkezli kar amacı gütmeyen bir kuruluş olan Internet Watch Foundation, karanlık ağda AI araçları tarafından oluşturulan çocuk cinsel istismarı materyallerinin (CSAM) giderek artan varlığını ayrıntılarıyla anlatan bir rapor yayınladı.
Araştırmacılar, sadece bir ay boyunca bir karanlık web CSAM forumunda yayınlanan 20.000’den fazla yapay zeka tarafından oluşturulan görsel buldular ve bu görsellerden 11.108’i IWF araştırmacıları tarafından büyük olasılıkla suç olarak değerlendirildi. IWF araştırmacılarının raporlarında yazdığı gibi, “Bu yapay zeka görüntüleri o kadar ikna edici olabilir ki, gerçek görüntülerden ayırt edilemezler.”