Bu ses otomatik olarak oluşturulmuştur. Geri bildiriminiz varsa lütfen bize bildirin.
Dalış Özeti:
-
Ulusal Güvenlik Ajansı yakın tarihli bir raporda, yapay zeka araçlarının hızlı bir şekilde benimsenmesinin onları potansiyel olarak kötü niyetli siber aktörler için “son derece değerli” hedefler haline getirdiği konusunda uyardı.
-
Rapora göre, hassas verileri veya fikri mülkiyeti çalmak isteyen kötü aktörler, bunu başarmak için bir kuruluşun yapay zeka sistemlerini “işbirliğiyle seçmeye” çalışabilir. NSA, kuruluşların insan hatası riskini en aza indirmek için “güvenlik bilincine sahip” bir kültürü teşvik etmek ve kuruluşun yapay zeka sistemlerinin güvenlik açıklarını ve güvenlik açıklarını önlemek için sağlamlaştırılmasını sağlamak gibi savunma önlemleri almasını tavsiye ediyor.
-
NSA Siber Güvenlik Direktörü Dave Luber bir basın açıklamasında, “Yapay zeka benzeri görülmemiş bir fırsat getiriyor, ancak aynı zamanda kötü niyetli faaliyetler için fırsatlar da sunabilir” dedi.
Dalış Bilgisi:
Rapor, Microsoft destekli OpenAI’nin son derece popüler ChatGPT modeli de dahil olmak üzere, başta üretken yapay zeka olmak üzere yapay zeka teknolojilerinin potansiyel suiistimallerine ilişkin endişelerin arttığı bir dönemde geldi.
Şubat ayında OpenAI, bir blog yazısında, kötü niyetli bilgisayar korsanlığı çabalarına zemin hazırlamak için girişimin geniş dil modellerini kullanan, devlete bağlı beş tehdit grubunun hesaplarını sonlandırdığını söyledi. Şirket, Microsoft tehdit araştırmacılarıyla iş birliği içinde hareket etti.
Microsoft, ayrı bir raporda şunları söyledi: “Siber suç grupları, ulus devlet tehdit aktörleri ve diğer düşmanlar, operasyonlarının potansiyel değerini ve aşmaları gerekebilecek güvenlik kontrollerini anlamak amacıyla farklı yapay zeka teknolojilerini ortaya çıktıkça araştırıyor ve test ediyor.” Blog yazısı. “Savunma tarafında, aynı güvenlik kontrollerini saldırılara karşı güçlendirmek ve kötü niyetli faaliyetleri öngören ve engelleyen aynı derecede gelişmiş izlemeyi uygulamak hayati önem taşıyor.”
Siber güvenlik ve yapay zeka analistleri Cybersecurity Dive’a, OpenAI ve Microsoft tarafından ortaya çıkarılan tehdit faaliyetinin, devlet bağlantılı ve suç gruplarının saldırı yeteneklerini güçlendirmek için üretken yapay zekayı hızla dağıtmalarının bir öncüsü olabileceğini söyledi.
NSA, yapay zeka sistemlerini hedef alan kötü niyetli aktörlerin, geleneksel bilgi teknolojisi sistemlerine karşı kullanılan standart tekniklerin yanı sıra yapay zekaya özgü saldırı vektörlerini de kullanabileceğini söyledi.
Ajansın raporunda, “Sonuçta, bir yapay zeka sisteminin güvenliğinin sağlanması, risklerin belirlenmesi, uygun azaltımların uygulanması ve sorunların izlenmesine yönelik devam eden bir süreci içerir” denildi.
NSA, kılavuzunun ulusal güvenlik amaçlarına yönelik olmasına rağmen, “özellikle yüksek tehdit içeren, yüksek değerli ortamlarda yapay zeka yeteneklerini yönetilen bir ortama getiren herkes için geçerli olduğunu” söyledi.
Rapor, ABD Siber Güvenlik ve Altyapı Güvenliği Ajansı’nın yanı sıra Birleşik Krallık Ulusal Siber Güvenlik Merkezi ve Kanada Siber Güvenlik Merkezi de dahil olmak üzere dünya çapındaki diğer devlet kurumlarıyla ortaklaşa geliştirildi.