Tek bir kelebeğin kanat çırpışı, binlerce kilometre ötede bir fırtınayı başlatabilir, yani kaos teorisi böyle söylüyor. Birkaç yıl önce, yazılım geliştirmede kaos teorisinin rolü, Ar-Ge kuyruğunun en ön sıralarına itildi ve başlangıçtaki meteoroloji merkezinin ötesine geçerek, uygun olmadığı, yerine uyacak şekilde yapıldığını kabul ettiği bir dizi alana taşındı. ve teorinin basitliği abartı içinde kayboldu. Ama hangi kelebek? Yapay zeka çözülemeyeni çözecek mi? Yapay zeka dünyanın sorunlarını çözecek sihirli bir araç mı olacak yoksa insanlığın rolünü sona erdirmeye yönelik kötü niyetli bir güç mü olacak? Açıkçası bunların hiçbirisi değil ama distopik kurgularda görülen makine çağına kölelik ile aletlerin uyumlu kullanımı arasında bir denge kurmak zor olacak.
Yapay zeka konusunda muhtemelen diğer güncel yazılım geliştirmelerinden çok daha fazla ilgi ve endişe var ve yapay zekayı her şeye uygulama konusunda da benzer bir telaş var. Yapay zeka sadece bir yazılım olarak göz ardı edilebilir ancak öyle olmamalıdır ve bu, yapay zekanın yeniliği ve tehlikesi açısından önemli bir konudur. Ancak tüm zeka türleri gibi yapay zekanın da bir dereceye kadar dikkatli kullanılması en iyisidir. Alexander Pope’un belirttiği gibi “Biraz öğrenmek tehlikeli bir şeydir“, çoğu zaman yanlış alıntılanan”Biraz bilgi tehlikeli bir şeydir” ve yapay zekanın birçok sorununun temelinde yatan da budur. Makine Öğrenimi (ML), yapay zeka alanında pratikte gözlemlenenlerin çoğunun temelini oluşturur ve en kaba ifadeyle, daha sonra ne olacağını tahmin etmek için verilerden korelasyonlar yapar. Bazı geri bildirimler uygulanarak korelasyonlar iyileştirilir ve tahminlerin zamanla daha doğru hale getirilmesi sağlanır. Hangi modelin gözlemlenen verilere en iyi şekilde uyduğunu belirleyen öğrenme biti veya algoritması olan ML motoru, karmaşık bittir ve doğru olması için çok sayıda veri noktasına ihtiyaç duyar.
Aşağıdaki xkcd’deki karikatür bize bir şey söylüyorsa o da eğri uydurmanın ve verilerden bilgi edinmenin genellikle zor olacağıdır (çizgi filmdeki her eğrinin aynı verilere uyduğunu unutmayın). Makine öğrenimi bazı açılardan Mark Twain’in (bunu Benjamin Disraeli’ye atfeden) görüşleriyle benzer risklere sahiptir: “Üç tür yalan vardır: yalanlar, kahrolası yalanlar ve istatistikler.” bugün yazılacak olsaydı dört tür yalan olduğunu öne sürerdi: yalanlar, kahrolası yalanlar, istatistikler ve bilgisayar istihbaratı. Sorun doğru veriyi seçmektir ancak bu istenen sonuca bağlıdır. Yanlış veri sonucu çarpıtır ve bir sonucu yedeklemek için kasıtlı olarak çarpık veri kullanmak, Twain’in önerdiği gibi bir yalandır.
Yapay zeka gibi bir sorunu çözmek için sorunun gerçekte ne olduğunu değerlendirmek önemlidir. Ayrıca, çözümün bir parçası olarak teknolojiyi uygulamak istiyorsak, hangi teknolojinin gerekli olduğunu bilmemiz gerekir. Sorunlar ve çözümler etrafındaki tartışmanın da rasyonel olması gerekir. ETSI’de standartların çözümde rol oynayacağına dair artan bir kabul vardır ve bu, diğer birçok SDO’ya da hızla yansımaktadır. Dolayısıyla burada ETSI’nin bugüne kadarki faaliyetlerini özetleyeceğiz ve yapay zekanın insan çabası için bir araç olarak etkili, emniyetli ve emniyetli bir şekilde kullanılmasına katkıda bulunmak amacıyla önümüzdeki aylarda ve yıllarda gerçekleştireceğimiz bazı eylemleri vurgulayacağız.
ETSI, ağ yönetimi ve optimizasyonuna yönelik çok özel bir araç yerine genel bir araç olarak yapay zekaya odaklanmaya başladığında, araştırılacak birkaç temel sorunu belirleyerek ve ardından yapay zekanın bir ontolojisi olan yapay zekanın güvenlik sorunlarını belgeleyerek işe başladı. tehditler, yapay zekaya özgü tehditlere yönelik hafifletme stratejilerinin gözden geçirilmesi ve yapay zekanın tedarik zincirine ilişkin bir çalışma.
Geniş özet olarak ETSI GR SAI 004, “Sorun Bildirimi”, makine öğrenimine odaklanarak yapay zeka tabanlı sistemlerin ve çözümlerin güvenliğini sağlama sorununu ve makine öğrenimi yaşam döngüsünün her aşamasında gizlilik, bütünlük ve kullanılabilirliğe ilişkin zorlukları açıklar. . Ayrıca yapay zeka sistemlerinin önyargı, etik ve açıklanabilirlik gibi daha geniş zorluklarını da açıklıyor. Bir dizi farklı saldırı vektörünün yanı sıra çeşitli gerçek dünya kullanım durumları ve saldırıları da anlatılmaktadır.
Sorun bildirimi doğrudan, Sorun Bildiriminde tartışıldığı gibi yapay zeka tabanlı sistemlere yönelik tehditlere karşı mevcut ve potansiyel hafifletmeyi özetleyen ve analiz eden ETSI GR SAI 005, “Azaltma Strateji Raporu”na yol açtı. Belgenin amacı, yapay zekanın sistemlere uyarlanmasıyla ortaya çıkan tehditlere karşı hafifletmeye yönelik teknik bir araştırma sunmaktır. Teknik araştırma, bilinen veya potansiyel güvenlik tehditlerini azaltarak yapay zeka tabanlı sistemlerin güvenliğini sağlamaya yönelik mevcut yöntemlere ışık tutuyor. Ayrıca belirli potansiyel kullanım durumlarında yapay zeka tabanlı sistemler için azaltım benimsenirken güvenlik yetenekleri, zorluklar ve sınırlamalar da ele alınmaktadır.
Verinin bütünlüğünü tehlikeye atan makine öğrenimi sistemlerindeki verinin rolünün tanınmasında çok küçük bir teğetlik olarak, grup ETSI GR SAI 002 “Veri Tedarik Zinciri Güvenliği”ni geliştirdi. Bu belge, yapay zeka eğitimi için veri kaynağı olarak halihazırda kullanılan yöntemleri, veri paylaşım protokolleri geliştirmeye yönelik mevcut girişimlerin incelemesiyle birlikte özetlemektedir ve bu analizden yola çıkarak, bütünlüğün sağlanmasına yönelik standartların olası gereksinimlerinin kapsamını belirlemek amacıyla bu yöntemler ve girişimler hakkında bir boşluk analizi sağlamaktadır. Paylaşılan veri, bilgi ve geri bildirimlerin gizliliği. Bu raporun daha sonraki bir raporda ele alınacak olan modellerin güvenliğinden ziyade öncelikli olarak veri güvenliğiyle ilgili olduğu belirtilmektedir.
Veri tedarik zinciri güvenliğine ilişkin rapor, güvenlik güvencesi için de geçerli olan performans, şeffaflık veya etik amaçlar doğrultusunda veri kalitesinin değerlendirilmesi ve anlaşılmasına yönelik tekniklerin rolünü ortaya çıkardı. Bu, saldırganın, yıkıcı bir etki elde etmek için bir modelin işlevselliğini bozma veya bozma amacına yöneliktir. Bu, bir yapay zeka tehdidinin yapay zeka olmayan herhangi bir tehditten ayırt edilebilmesi için tanımlandığı ETSI GR SAI 001 “Yapay Zeka Tehdit Ontolojisi” içeriğiyle bir dereceye kadar güçlendirilmiştir. Yapay zeka tehdidi modeli, tehditleri temsil eden aktörler, tehdit aracıları, varlıklar vb. arasındaki ilişkilere ilişkin bir görünüm sağlamak için bir ontoloji biçiminde sunulur. Açıklanan ontoloji, hem bir tehdit aracısı hem de bir saldırı hedefi olarak yapay zeka için geçerlidir. Veri işlemede ontolojilerin kullanımı gibi zekayı anlamanın yönleri de belgede ele alınmaktadır. Raporda, siber güvenliğin pek çok çerçevesinin, ontolojik bir dille açıkça ifade edilmeksizin doğası gereği ontolojik olduğu belirtiliyor.
Bu rapor dizisinden elde edilen çalışmalar, ETSI GR SAI 006’da ve ETSI GR SAI 009’da “Yapay Zeka Bilgi İşlem Platformu Güvenlik Çerçevesi”nde “Yapay Zeka güvenliğinde donanımın rolü” konusunun ele alınmasına yol açmıştır. Bu ikisi birlikte, yapay zekanın güvenliğinde hem özel hem de genel amaçlı donanımın rolünü ve yapay zeka için bir platform oluşturmada donanımın işletim yazılımı tarafından genişletilmesini ele alıyor ve bu, yapay zeka için bir platform oluşturmak amacıyla daha da geliştirilerek normatif hükümler haline getiriliyor. 2024 yılının ilk çeyreğinde yayınlanması beklenen ETSI GS SAI 015’te yapay zeka için güvenli bilgi işlem platformu.
Gelişen yasama araçlarının çoğunda tanımlanan yapay zekanın temel unsurlarından biri şeffaflık ve açıklanabilirliktir (veya İngilizcenin daha çok Amerikan kullanımında açıklanabilirlik). Bu durum, bir geliştiricinin yapay zekanın varlığını ve amacını bir platformda gösterebilmesini sağlayarak hem statik hem de dinamik yönlerin basitleştirilmiş bir görünümünü alan ETSI GR SAI 007 (Yapay Zeka işlemenin açıklanabilirliği ve şeffaflığı) dahil olmak üzere bir dizi çalışmada ele alınmıştır. sistemi ve (geliştirilme aşamasındadır ve 2023’ün 4. çeyreğinde yayınlanması beklenmektedir) ETSI GR SAI 010 – Yapay Zeka Modellerinin İzlenebilirliği. İlki, hedef kitlesini, sıradan bir kişiye, tasarımcıların şunları yapabileceğine dair güvence veren tasarımcılar ve uygulayıcılar olarak tanımlar:çalışmalarını göster” (açıklanabilirlik) ve “olmakincelemeye açık” (şeffaflık).
ETSI’nin ISG SAI’sinin en son yayınları, yapay zekanın zorluklarını derinlemesine incelemeye devam ediyor ve özellikle test, yapay zeka tabanlı manipülasyon ve işbirlikçi yapay zeka konularını ele alıyor.
Yapay zeka testi nispeten yeni bir yöndür ve ETSI’de iki cephede ele alınmaktadır. ETSI’nin TC MTS’sinde, normatif test paketlerinin tutarlı bir şekilde yazılabilmesi için yapay zekanın spesifik testlerine bakılıyor. ISG Sayıştayı’nda iki yaklaşım benimsenmektedir. ETSI GR SAI 013 “Kavram Kanıtları Çerçevesi”nde amaç, fikirlerin ve teknolojinin uygulanabilirliğini göstermek için bir araç olarak kullanılabilecek bir çerçeve geliştirmektir. İkinci konu, makine öğrenimi tabanlı bileşenlerin güvenlik testi için uygun yöntem ve teknikleri tanımlayan ETSI GR SAI 003 “Yapay Zekanın Güvenlik Testi”nde görülmektedir. Belge adresleri
• yapay zeka için güvenlik testi yaklaşımları
• yapay zeka için güvenlik testi oracle’ları
• yapay zekanın güvenlik testi için test yeterlilik kriterlerinin tanımı.
En son ETSI’nin ISG SAI’si, Multimedya Kimlik Temsillerinin Otomatik Manipülasyonuna değinen ETSI GR SAI 011’i yayınladı. Bu, özellikle ses, video ve metin (deepfake) gibi farklı medya formatlarında temsil edilen kimlik verilerinin otomatik olarak manipüle edilmesi için yapay zeka tabanlı tekniklerin kullanılması gibi, yapay zekanın yükselişiyle ortaya çıkan daha acil endişelerin çoğunun ayrıntılarına iniyor. . Çalışma, kullanılan yaklaşımları analiz ederek, bu tehditleri hafifletmeye yönelik daha ileri teknik ve organizasyonel önlemler için temel sağlamayı amaçlıyor ve bunların etkinliğini ve sınırlamalarını tartışıyor.
Özetle, ETSI’nin ISG Sayıştayı’nın çalışması, yapay zekanın tehdit ortamındaki rolünü rasyonelleştirmek ve bunu yaparken yapay zekanın hizmet vermesi amaçlanan nüfusun yanı sıra yapay zekanın güvenli ve emniyetli bir şekilde konuşlandırılmasına yol açacak önlemleri belirlemek olmuştur.