Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
Avrupalı Yapay Zeka ve Siber Güvenlik Uzmanları ENISA Konferansında ‘Hazırlık Kazandırır’ Diyor
Mathew J. Schwartz (euroinfosec) •
7 Haziran 2023
Toplumlar, tam olarak bilinmeyen siber güvenlik riskleri de dahil olmak üzere potansiyel olumsuz tarafları en aza indirirken üretken yapay zekanın sunduğu faydaları en üst düzeye nasıl çıkarabilir?
Ayrıca bakınız: Yeni Siber Güvenlik Raporlama Gereksinimlerine Hazırlanma
Avrupa Birliği siber güvenlik ajansı ENISA, Çarşamba günü Brüksel’de “AI sistemlerinde siber güvenliğin temel yönlerinin yanı sıra güvenli ve güvenilir AI’nın uygulanması ve denetlenmesiyle ilgili zorlukların” tartışıldığı bir konferansa ev sahipliği yaptı.
ENISA bilgi ve enformasyon ekip lideri Apostolos Malatras, “Hazırlık, ilerlemenin en iyi yoludur” dedi (bakınız: Yapay Zekanın Domine Ettiği RSA Konferansı Tartışmalarına Yönelik Ölümcül Kullanım Örnekleri).
Hükümetin siber güvenliğini ve yapay zeka kullanımını denetleyen Hollanda Dijital Altyapı Kurumu’ndan Huub Janssen bir harekete geçirici mesaj yayınladı. AI, hiçbirinin “kötü veya yıkıcı” olması gerekmeyen “yeni fırsatlar ve yeni riskler” sunuyor. AI’yı yasaklamayı denemeyi önermedi. Ancak doğru yönde ilerlediğinden emin olmak için harekete geçmeliyiz” dedi.
AB milletvekilleri, çeşitli sohbet robotlarının altında yatan modeller gibi “temel model” üreticilerinin belirli sağlık, güvenlik ve çevre kurallarına uymasını ve demokrasi ile insan haklarını desteklemesini gerektirecek yasalar hazırlıyorlar.
Janssen, ChatGPT gibi büyük dil modellerinin “warp hızında” gelişmeye devam ettiğini ve büyük yeniliklerin genellikle haftalar içinde ortaya çıktığını söyledi. Şu anda, dizüstü bilgisayarlarda iyi çalışacak kadar küçük, açık kaynaklı hafif dil modellerinin patlamasını izliyor. Bunlar zaten birbirini geliştirmek için kullanılıyor. Şu şekilde yapılır: Üç farklı hafif dil modeline bir soru sorun, hangi cevabın en iyi olduğunu değerlendirmek için başka bir model atayın ve ardından başka bir modele diğerlerinin çıktılarını iyileştirmek için görevler atamasını söyleyin.
Fransız çok uluslu şirket Thales Group’ta yapay zeka ve siber güvenlik uzmanı olan Adrien Bécue, yapay zeka chatbot siber güvenlik vaadi ve tehlikesine ayrılmış bir panelde konuşurken, yapay zeka riskler taşırken güçlü fırsatları da vurgulamak önemlidir.
Gördüğü fırsatlar arasında yapay zekanın günümüzde zaman alan ve zahmetli bir süreç olabilen büyük hacimli tehdit istihbaratını “analiz etme ve sentezleme” yeteneği yer alıyor. Olay müdahalesi için yapay zeka, farklı paydaş gruplarını ve dil engellerini aşarak otomatikleştirmeye ve koordine etmeye yardımcı olabilir. Yazılım güvenlik açıklarının acilen yamalanması gerektiğinde, “uzman kod oluşturucu sohbet robotları”, geliştiricilerin acil durum düzeltmelerini hızla oluşturmasına ve test etmesine yardımcı olabilir.
Hızlı Gelişmeler
AI’nın buradan nereye – ve ne kadar hızlı – gittiği açık bir soru olmaya devam ediyor.
AB’nin kriminal istihbarat ve koordinasyon kurumu Europol’de veri bilimcisi olan panelist David Johnson, “Yapay zeka modellerinin gelişimini tahmin etmek gerçekten zor” dedi.
Kendisini bir uzmandan ziyade “geniş dil modeli meraklısı” ve kullanıcısı olarak tanımlayan Johnson, görevinin Europol’ün diğer kolluk kuvvetlerinden aldığı büyük veri kümelerini almasına ve zenginleştirmesine yardımcı olmak olduğunu söyledi. Son birkaç aydır LLM’lerle deneyler yapıyor ve şu ana kadar bunların henüz yeterince güvenilir olmadığını bildiriyor. “Gerçekten çok iyi yaptığını bulduğum şey, büyük bir özgüvenle cevap vermek – o kadar özgüvenle buna inanma eğilimindeyim, ancak neredeyse yarısı tamamen yanlış.”
Johnson, mevcut şüpheciliğine rağmen, LLM’lerin ne kadar hızlı ilerlediği göz önüne alındığında, siber güvenlik uzmanlarının yapay zeka gelişmelerini yakından takip etmesi gerektiğini, çünkü bu tür sorunların “çok yakında – hatta belki yarın” çözülebileceğini söyledi.
Thales’ten Bécue, yapay zekanın yanıltmak için tasarlanmadığını söyledi. “Kasıtlı olarak yalan söylemiyor; sizi memnun etmek için tasarlanmış,” dedi ve doğru cevaplar verip vermediği, “sorun şu ki, bir noktada bu şeylerin söylediklerine inanmaya başlayacağız.”
IBM Belçika’daki bilgi yönetimi uzmanı Snezhana Dubrovskaya, insanların ChatGPT çıktısını, otomatik olarak PowerPoint sunumları oluşturmak için Visual Basic for Application kodu oluşturmak üzere kullanmak gibi, muhtemelen beklenmedik şekillerde kullandığını söyledi.
Bu kodu kopyalayıp yapıştıran kullanıcıların ne işe yaradığına dair iyi bir anlayışa sahip olup olmadığı açık bir soru olmaya devam ediyor ve herhangi bir AI aracında insan faktörlerinin nasıl bir risk oluşturduğunu vurguluyor. Her zamanki gibi çok iyi niyetimiz var ama kötüye kullanılabilir” dedi.
Buna rağmen, bir güvenlik sohbet botu olarak çalışan ve kullanıcıya belirli bir tehditle mücadele etmek veya örneğin bir CrowdStrike aracından bir uyarı almak için “tipik hafifletme eylemleri” listesi sağlayacak olan ChatGPT gibi araçlardan artan siber güvenlik faydasını tahmin ediyor. izinsiz giriş belirtileri için günlükleri incelemek için bir Splunk sorgusu.
Chatbot’lar, en azından güvenlik açıklarını vurgulamaya yardımcı olabileceklerini gösterdi. Europol’den Johnson, “Kesinlikle mümkün ve halka açık sohbet robotları bunu şaşırtıcı derecede iyi yapıyor,” dedi en azından test senaryolarında. Kripto para araştırmalarında potansiyel kullanım için Europol, ChatGPT’yi “savunmasız olduğunu bildiğimiz bir akıllı sözleşmeyle test etti ve bize bunun savunmasız olduğunu ve geliştiricinin güvenlik açığını azaltmak için ne yapması gerektiğini oldukça açık bir şekilde söyledi.”
Chatbot’ların güvenlikte nasıl iyilik için kullanılabileceğine dair örneklerin çoğu şu temel gereksinimi paylaşır: ne yaptığını bilen bir kullanıcı. Özellikle, IBM’den Dubrovskaya, çıktının kalitesi kısmen girdinin kalitesine bağlı olduğundan, bir kullanıcının bir chatbot’a iyi istemler vermesi gerektiğini söyledi.
Sohbet robotlarının henüz mükemmel bir cevabı olmadığı bir şey daha varsa, o da “çöp içeri, çöp dışarı” bilgisayar bilimi meydan okumasıdır.