Yapay Zekanın Domine Ettiği RSA Konferansı Tartışmalarına Yönelik Ölümcül Kullanım Örnekleri


Yapay Zeka ve Makine Öğrenimi , Siber Suçlar , Uç Nokta Güvenliği

Uzmanlar, Kullanım Örnekleri: Siber Güvenlik Suçu, Savunma ve Yapay Zekanın Kendisini Koruma

Mathew J. Schwartz (euroinfosec) •
2 Mayıs 2023

Yapay Zekanın Domine Ettiği RSA Konferansı Tartışmalarına Yönelik Ölümcül Kullanım Örnekleri
RSA Konferansı 2023, San Francisco’daki Moscone Center’a geri döndü. (Fotoğraf: RSA)

RSA öncesi sosyal medya oyunları bunu öngördü. Birçoğu bundan nefret edeceklerini tahmin etti. Ve oldu: Bu yılki RSA konferansındaki tartışmalar tekrar tekrar üretken yapay zekaya geri döndü – ama bir farkla. Şüphecilerden bazıları bile, iyi ya da kötü niyete aldırış etmeden insan faaliyetlerine başkanlık etmeye hazır olan derebeyinin yapay zeka tapınağına dönüştüğünü itiraf etti.

Ayrıca bakınız: CISO’nun Olaya Hazırlık ve Müdahale Kılavuzu

İsrailli kriptograf Adi Shamir’i – RSA şifreleme sistemindeki S’yi – bir din değiştiren olarak sayın. Bir yıl önce, RSA’da konuşurken, yapay zekanın bazı savunma kullanım durumları olabileceğini düşündü, ancak bunun bir saldırı tehdidi olduğunu görmedi.

Salı günü sahnede, her yıl düzenlenen Cryptographer’s Panel’in panelistlerinden biri olarak, “Fikrimi tamamen değiştirdim,” dedi. “Artık ChatGPT’nin mükemmel İngilizce üretme, insanlarla etkileşim kurma yeteneğinin, en azından toplum mühendisleri tarafından büyük ölçekte kötüye kullanılacağına inanıyorum” dedi.

RSA’daki uzmanlar, üretken yapay zeka için üç geniş kullanım durumu belirledi: güvenlik operasyon merkezleri dahil olmak üzere siber güvenlik savunucuları tarafından; sosyal mühendisler ve kötü amaçlı yazılım geliştiricileri dahil olmak üzere saldırganlar tarafından; ve büyük dil modellerinin ve üretken araçların bütünlüğünü ve güvenilirliğini doğrudan korumak için.

Palo Alto Networks’ün başkanı ve CEO’su Nikesh Arora, RSA Konferansı 2023’teki bir röportajda meslektaşım Michael Novinson’a “Yapay zeka ile yapay zeka ile savaşmaya” ihtiyaç duyulacağını söyledi.

Bu alandaki kötü niyetli inovasyonun hızı dikkate değer. Yalnızca haftalar önce, bir kötü amaçlı yazılım geliştiricisi, kötü amaçlı kodun nasıl bir API yoluyla ChatGPT’ye bir dizi yazılı talimat gönderebildiğini, istediği kötü amaçlı yeteneklerin türünü yazılı İngilizce olarak açıklayarak ve bir hedefe karşı kullanmak üzere benzersiz bir kod dizisini nasıl geri alabildiğini gösterdi. WithSecure baş araştırma görevlisi Mikko Hypponen, konferanstaki bir röportajda bana söyledi.

Tarihsel olarak, kötü amaçlı yazılım kullanıcıları kodlarını “yeniden paketlediler” ve imza tabanlı algılamayı engellemek için yeniden derlediler. Hypponen, ChatGPT destekli bu yaklaşımın kötü amaçlı yazılımı tamamen yeniden yazdığını ve tespit edilmesini çok daha zorlaştırdığını söyledi. Gördüğü kötü amaçlı yazılım daha çok bir kavram kanıtı olsa da – başarıdan gurur duyan bir kötü amaçlı yazılım geliştiricisi tarafından kendisine gönderildi – çok geçmeden, yerleşik üretken AI yetenekleri taşıyan kötü amaçlı yazılımın geleceğini ve onu daha da öldürücü hale getireceğini tahmin ediyor.

Bu nedenle ChatGPT gibi araçlar, daha şimdiden daha iyi kimlik avı e-postaları yazmaktan daha fazlasını yapmak için suçlular tarafından kullanılıyor.

Tüm bunların sonu nereye varabilir? Fütürist Winn Schwartau’nun bana söylediğine göre, ortaya çıkan bir risk, üretici yapay zekanın sosyal ağların veya televizyonun ötesine geçerek “daha sürükleyici bir deneyim” yaratmasını desteklemesi; bunun uç noktasında – veya “meta noktasında” – gerçeklikten ayırt edilemeyecek olduğunu söyledi (bkz:: Elektronik Pearl Harbor Prophet Metaverse Uyarısı Yayınladı).

Ne yazık ki, bu tür bir daldırmanın, aşırılık yanlısı siyaset satanlar, yasadışı bir maaş günü arayan siber suçlular veya belki de demokrasi pahasına bilgi savaşı uygulayan ulus devletler tarafından kötü niyetli veya zararlı amaçlarla kullanılacağı kesin görünüyor.

Bu tür ortamların sağladığı “gerçeklik çarpıtmasını” ölçmek ve yapay zeka da dahil olmak üzere kamu güvenliği sınırlarını tanımlamak için mevzuatı kullanmak ve daha iyi eleştirel düşünme becerilerini öğretmek, bu yetenekleri bireysel veya toplumsal düzeyde bize karşı kullanma girişimlerini durdurmak için anahtar olacaktır. , dedi Schwartau.

Çok sayıda hükümet, üretken yapay zekanın ortaya koyduğu riskleri sorgulamak ve koruma önlemleri önermek için hızla harekete geçiyor. İtalya, talep edilen gizlilik önlemleri eklendikten sonra ChatGPT yasağını kaldırdı ve İspanya ve Fransa teknolojiyi incelemeye devam ediyor (bkz.: Avrupa’da ChatGPT İncelemesi, Araştırmalar Arttıkça Büyüyor).

Reuters’in bildirdiğine göre, Pazar günü dünyanın gelişmiş ekonomilerinden oluşan G7 grubu, AI ile mücadelede “riske dayalı” bir yaklaşım benimsemeye çağırdı.

G7 bakanları, “Yönetişim, telif hakkı da dahil olmak üzere fikri mülkiyet haklarının nasıl korunacağı, şeffaflığın teşvik edilmesi” ve “dezenformasyonun ele alınması” gibi konuları içerebilecek, üretken yapay zeka üzerine gelecekteki G7 tartışmalarını düzenlemeyi planlıyoruz.

Bu arada Avrupalı ​​milletvekilleri, teklif ettikleri Yapay Zeka Yasasını, sağlayıcılardan benzeri görülmemiş düzeyde şeffaflık gereksinimleri de dahil olmak üzere hızlı ilerlemeler ışığında yeniden yazdılar, Reuters bildirdi.

Yapay zeka, pek çok filmde önizlenen biçimde olmasa da doğrudan bizi yok etmeye kararlı kötü niyetli bir varlık olarak geldi. Üretken yapay zeka, topluca hayal bile edemediğimiz yeni kullanım durumlarıyla, kimin ve ne söylediğimizin ve yaptığımızın bir yansıması haline geliyor. Elbette sadece iyiye değil kötüye de alışılacaktır.

Schwartau’nun dediği gibi, uygun şekilde hazırlanmazsak, “Bugün sahip olduğumuz teknolojinin ve sosyal yapının birleşmesi felaket için bir reçetedir.”





Source link